Saltar al contenido
Pegar imágenes en el foro, mediante equipos móviles ×

Altavoces KEF : Blade Meta + los nuevos y sorprendentes LS60 W !!!!!


Mr_oD

Recommended Posts

hace 3 horas, Robertostgo dijo:

Claro pero hay que tener en cuenta la importación que más menos 25% y la ganancia de la empresa que lo trae que no deja de ser al menos un 20% dando cercano a los 10 mm

Enviado desde mi ASUS_I005DA mediante Tapatalk
 

El precio indicado es precio público. MW importa a precio de distribuidor no a precio público. En general, MW tiene precios bastante competitivos en mi opinión. Aunque, claramente se tiran con el precio de los LS50 Meta actualmente (en el pasado costaban bastante menos). Los Meta debiesen costar alrededor de 1.2M-1.3M (los ponen a ese precio cuando hacen "promociones") y los tienen a 1.5M en precio normal.

Si extrapolamos el precio de las Meta (normal) vs precio en Uk (GBP 1000) , tendríamos GBP 6.000 x 1.5 = CLP 9 M. Sinceramente no creo (espero) que las vendan tan caras. Si lo hacemos a precio "oferta": 6.000 x 1.2 = 7.2 M lo encuentro más razonable.

Obviamente son suposiciones por confirmar.

Editado por Bozon
Enlace al comentario
Compartir en otros sitios

hace 2 horas, pbanados dijo:

jaja, cierto. En todo caso, mis otras especulaciones (ver posts del día) estaban bastante correctas:

  • El crooosover es bastante alto, a 400 Hz.
  • La caja ES sellada, no reflex. De hecho, tiene que serlo para poder usar los woofers Uni-Core.

Datos sacados de esta entrevista interesante de la WHF a Oclee-Brown, quien tb dice algo bien relevante: reconociendo que las cajas activas pueden ser un problema para los clientes acostumbrados a hacer upgrades y ajustes a sus sistemas (no creo que esté pensando en los foreros chilenos, de ninguna manera....) para el este diseño podría ser el punto de inflexión para la preeminencia de parlantes activos para lograr el óptimo posible en audio: este producto, diseñado de la partida como una caja activa y no una simple adaptación de una caja pasiva con electrónica adentro, demuestra que se pueden hacer cosas que en una caja pasiva serían imposibles. Por ejemplo, en estas LS60 le introducen "distorsión de cancelación" para los woofers, que deben tener alta excursión para poder llegar abajo en este tamaño (por eso también son 4 y no 2 por caja). Como este mayor recorrido implica un mayor nivel de distorsión, a la señal se le introduce con el DSP una distorsión de cancelación con lo cual el resultado queda lineal.

El ancho de la caja es de solo TRECE CENTIMETROS. Es tan estrecha que el uniQ de 5.25" casi se sale por los lados. Eso explica por qué la caja no necesita ser curvada conmo en los LS50 o Meta, ya que ya simplemente NO HAY gabinete que difracte nada más allá del propio driver (al menos horizontalmente; si te importa verticalmente, bueno, tienes el Blade a un precio algo mayor...).

https://www.whathifi.com/features/the-making-of-kef-ls60-wireless-active-advantages-blade-influence-and-the-next-60-years

 

Creo que azul.

La parte de introducir distorsión de cancelación y usar el feedback desde el cono al amplificador para anular las distorsiones es un concepto bastante vanguardista. Eso también significa que no es factible hacer un LS60 pasivo que tenga un rendimiento competitivo con este producto. 

En el artículo también mencionan un poco al comprador tradicional de hifi en donde reconocen que tener un All in one básicamente anulan la posibilidad de los upgrades incrementales y combinatorias que tanto nos gusta hacer y experimentar. No lo veo "malo" por ese lado la verdad, lo que sí me preocupa un poco es que nacen como mueren y si te falla algo, ya no será cuestión de sacar una caja y comprar otra nueva (mejor obviamente) si no que pasar por el servicio técnico y reemplazar componentes.

Lo "realmente" malo es que nos jode la justificación para comprar equipos ... 🤣 y nos iguala a cualquier persona que compra una solución de audio lista y sin mayor esfuerzo más allá del precio. Es como parecido a cuando Apple fundió las baterías en el interior de los teléfonos y no dejó subirles la capacidad de almacenamiento al no poner ranura microSD y después quitó el puerto de audífonos (paradójico esto último siendo que los iPhone derivaron de los iPods).

Pienso que los LS60 se van a vender masivamente entre el público en general que no le interesa entender todas las complejidades del audio y también entre los audiófilos que caigan "presa" del sonido. Ya me imagino un newbie ingresando a una tienda, escucha esos parlantes, "suenan increíbles y que simples de usar e instalar y delgados son. Me lo llevo".

 

Editado por Bozon
Enlace al comentario
Compartir en otros sitios

El precio indicado es precio público. MW importa a precio de distribuidor no a precio público. En general, MW tiene precios bastante competitivos en mi opinión. Aunque, claramente se tiran con el precio de los LS50 Meta actualmente (en el pasado costaban bastante menos). Los Meta debiesen costar alrededor de 1.2M-1.3M (los ponen a ese precio cuando hacen "promociones") y los tienen a 1.5M en precio normal.
Si extrapolamos el precio de las Meta (normal) vs precio en Uk (GBP 1000) , tendríamos GBP 6.000 x 1.5 = CLP 9 M. Sinceramente no creo (espero) que las vendan tan caras. Si lo hacemos a precio "oferta": 6.000 x 1.2 = 7.2 M lo encuentro más razonable.
Obviamente son suposiciones por confirmar.
Saldremos de dus una vez MW las tenga en vitrina.....

Enviado desde mi ASUS_I005DA mediante Tapatalk

Enlace al comentario
Compartir en otros sitios

hace 3 horas, Bozon dijo:

Lo "realmente" malo es que nos jode la justificación para comprar equipos ... 🤣 y nos iguala a cualquier persona que compra una solución de audio lista y sin mayor esfuerzo más allá del precio. Es como parecido a cuando Apple fundió las baterías en el interior de los teléfonos y no dejó subirles la capacidad de almacenamiento al no poner ranura microSD y después quitó el puerto de audífonos (paradójico esto último siendo que los iPhone derivaron de los iPods).

Lo cual es terrible... capaz que tendríamos que dedicarnos a escuchar música...🤣. Se entiende la idea, pero al final cumpa, lo que importa es la música. Life is short.

Varias veces he puesto acá en el foro que encuentro muchas similitudes(guardando las proporciones) entre Apple y Kef. En este LS60, hasta la infografía del flujo de enfriamiento de la electrónica parece sacada del Mini Studio o algún laptop Mac...

Otra cosa bien interesante es que el uni-Q usado es específico para los LS60, y no el de 5.25" del Meta como creía. Este es de apenas 4" (parece que aún más chico que el de los LSX). Bastante lógico también, si a la cuádrupla de woofers les llevan el corte más arriba, a los 400 Hz. En algún blog de diseño de parlantes leí que en parlantes concéntricos, a más chico el cono, mejor la integración de unidades y mejores los patrones de dispersión (debe ser por eso que nunca me ha llamado la atención la "holografía" de los Tannoy, como si es muy llamativa en varios Kef). Este catálogo reducido de piezas, optimizadas a a concho y en un patrón de mejoramiento continuo (el uniQ llevan casi 25 años optimizándolo), con pequeñas adaptaciones para los distintos productos, es también una característica muy notoria de Apple, asociada a la racionalidad ingenieril, óptimo manejo de stocks, reutilización de maquinaria y automatización de fabricación, entre otros beneficios.

Otra, el papel clave del diseño industrial: A muchos arquitectos les gusta ocupar un término erróneamente adjudicado al cuasi dios Mies Van Der Rohe (mi avatar en twitter es "mieswall"...), pero que en realidad era del austríaco Adolf Loos: "form follows function". También una de mis máximas de diseño; y otro de los aspectos de similitudes entre KEF y Apple. Este diseño de los LS60 es indudablemente influenciado por Dieter Rams (famoso diseñador alemán post Bauhaus, jefe de diseño de Braun), que es también uno de los ídolos de Jony Ive (el gurú de diseño de la Apple y protegé de Steve Jobs, pero que se fue hace un par de años medio choreado por el rumbo que está tomando la empresa con Cook ). 

1: Audioquest Niagara 3000 >CD Sony XA50ES / Rega Planar 3, AT-OC9XML, Moon 110LP / Macmini (Tidal+Roon) > Theoretica BACCH4Mac >RME Babyface pro/ Mytek Brooklyn DAC > Rogue Audio Cronus Magnum III (KT120) >Magnepan 1.7i  

2: TV qled 55"/ Roon> Advance Acoustics MyConnect 50 > Kef LS50 Meta.  

"I've looked at life from both sides nowFrom win and lose and still somehowIt's life's illusions I recallI really don't know life at all" Joni Mitchell

Enlace al comentario
Compartir en otros sitios

Dicho sea de paso: al igual que en el modelo de la Apple, que cuando se le empezó a saturar el margen vendiendo hardware, implementaron el modelo de "servicios" (que de seguro lo tenían en barbecho por años) y que actualmente explica el 25% de sus ventas y casi el 50% de la utilidades; una cosa que no me sorprendería es que KEF sacara una serie de parlantes activos (como decía @Bozon, los "iPhones" del audio); y después ofreciera "software" para ellos a modo de servicios complementarios. No demasiado pronto (todavía les queda harto jugo que sacarles a los parlantes mismos), pero llegado el momento...

Los comentarios del Oclee-Brown sobre la inteligencia artificial en el streaming, o formas de adaptar el DSP a la acústica de la sala pueden ser parte de esas ideas futuras. Yo fuera ellos estaría trabajando en eso desde hace rato. Notar cómo cuenta en la entrevista que la pareja del woofers con cancelación Uni-Core la idearon para este LS60 ANTES que para el SW KC62, por ejemplo, que salió al mercado 15 meses antes.

1: Audioquest Niagara 3000 >CD Sony XA50ES / Rega Planar 3, AT-OC9XML, Moon 110LP / Macmini (Tidal+Roon) > Theoretica BACCH4Mac >RME Babyface pro/ Mytek Brooklyn DAC > Rogue Audio Cronus Magnum III (KT120) >Magnepan 1.7i  

2: TV qled 55"/ Roon> Advance Acoustics MyConnect 50 > Kef LS50 Meta.  

"I've looked at life from both sides nowFrom win and lose and still somehowIt's life's illusions I recallI really don't know life at all" Joni Mitchell

Enlace al comentario
Compartir en otros sitios

hace 24 minutos, pbanados dijo:

Dicho sea de paso: al igual que en el modelo de la Apple, que cuando se le empezó a saturar el margen vendiendo hardware, implementaron el modelo de "servicios" (que de seguro lo tenían en barbecho por años) y que actualmente explica el 25% de sus ventas y casi el 50% de la utilidades; una cosa que no me sorprendería es que KEF sacara una serie de parlantes activos (como decía @Bozon, los "iPhones" del audio); y después ofreciera "software" para ellos a modo de servicios complementarios. No demasiado pronto (todavía les queda harto jugo que sacarles a los parlantes mismos), pero llegado el momento...

Los comentarios del Oclee-Brown sobre la inteligencia artificial en el streaming, o formas de adaptar el DSP a la acústica de la sala pueden ser parte de esas ideas futuras. Yo fuera ellos estaría trabajando en eso desde hace rato. Notar cómo cuenta en la entrevista que la pareja del woofers con cancelación Uni-Core la idearon para este LS60 ANTES que para el SW KC62, por ejemplo, que salió al mercado 15 meses antes.

Dirac declara que su última versión trabaja con IA. De hecho la aplicación, al parecer, luego de medir sube el perfil de la medición a la nube y ahí genera la curva de equalización / time alignment y modulación de impulso.

Enlace al comentario
Compartir en otros sitios

hace 41 minutos, pbanados dijo:

Lo cual es terrible... capaz que tendríamos que dedicarnos a escuchar música...🤣. Se entiende la idea, pero al final cumpa, lo que importa es la música. Life is short.

Varias veces he puesto acá en el foro que encuentro muchas similitudes(guardando las proporciones) entre Apple y Kef. En este LS60, hasta la infografía del flujo de enfriamiento de la electrónica parece sacada del Mini Studio o algún laptop Mac...

Otra cosa bien interesante es que el uni-Q usado es específico para los LS60, y no el de 5.25" del Meta como creía. Este es de apenas 4" (parece que aún más chico que el de los LSX). Bastante lógico también, si a la cuádrupla de woofers les llevan el corte más arriba, a los 400 Hz. En algún blog de diseño de parlantes leí que en parlantes concéntricos, a más chico el cono, mejor la integración de unidades y mejores los patrones de dispersión (debe ser por eso que nunca me ha llamado la atención la "holografía" de los Tannoy, como si es muy llamativa en varios Kef). Este catálogo reducido de piezas, optimizadas a a concho y en un patrón de mejoramiento continuo (el uniQ llevan casi 25 años optimizándolo), con pequeñas adaptaciones para los distintos productos, es también una característica muy notoria de Apple, asociada a la racionalidad ingenieril, óptimo manejo de stocks, reutilización de maquinaria y automatización de fabricación, entre otros beneficios.

Otra, el papel clave del diseño industrial: A muchos arquitectos les gusta ocupar un término erróneamente adjudicado al cuasi dios Mies Van Der Rohe (mi avatar en twitter es "mieswall"...), pero que en realidad era del austríaco Adolf Loos: "form follows function". También una de mis máximas de diseño; y otro de los aspectos de similitudes entre KEF y Apple. Este diseño de los LS60 es indudablemente influenciado por Dieter Rams (famoso diseñador alemán post Bauhaus, jefe de diseño de Braun), que es también uno de los ídolos de Jony Ive (el gurú de diseño de la Apple y protegé de Steve Jobs, pero que se fue hace un par de años medio choreado por el rumbo que está tomando la empresa con Cook ). 

Obviamente lo dije en <modo irónico On>..... Obvio que si rinde tanto como indican genial para relajarse y disfrutar la música (una suerte de "endgame" de la búsqueda audiófila).

Mi único temor es ver que tanto "daño" hace la aplicación del DSP (me imagino que en dominio digital) a las pistas sonoras. He notado que los tracks pasados por estos filtros (con Dirac y SonarW pasa eso) como que se ponen medios "digitales", es decir, como que el sonido se pone "áspero" y los microdetalles como que se van de tono vs sin el filtro (no sé si lo has percibido). Yo le hecho la culpa a que las ecualizaciones que se aplican son en frecuencias discretas y no continuas (pura especulación mía no más). O sea, pienso que el "sampling" de los filtros es menor que el de la música propiamente tal y por ese motivo los "gaps" entre los puntos de intervención del filtro quedan desfasados o vacíos. (Insisto, pura especulación, nada científico).

Enlace al comentario
Compartir en otros sitios

hace 14 minutos, Bozon dijo:

Obviamente lo dije en <modo irónico On>..... Obvio que si rinde tanto como indican genial para relajarse y disfrutar la música (una suerte de "endgame" de la búsqueda audiófila).

Mi único temor es ver que tanto "daño" hace la aplicación del DSP (me imagino que en dominio digital) a las pistas sonoras. He notado que los tracks pasados por estos filtros (con Dirac y SonarW pasa eso) como que se ponen medios "digitales", es decir, como que el sonido se pone "áspero" y los microdetalles como que se van de tono vs sin el filtro (no sé si lo has percibido). Yo le hecho la culpa a que las ecualizaciones que se aplican son en frecuencias discretas y no continuas (pura especulación mía no más). O sea, pienso que el "sampling" de los filtros es menor que el de la música propiamente tal y por ese motivo los "gaps" entre los puntos de intervención del filtro quedan desfasados o vacíos. (Insisto, pura especulación, nada científico).

mmm... interesante punto. Ahora, en rigor la ecualización digital sería inherentemente mejor a la analógica, pues se pueden implementar filtros (especialmente los de tipo FIR: finite impulse response) que no afectan el time alignment, entre otras cosas (y por tanto, la respuesta a impulsos, pero esto es largo de explicar). En los análogos por cada elemento que pasa la señal (inductores, capacitores, etc) se van generando desfases de armónicos respecto de la fundamental.

Minidsp, por ejemplo, hace mucho énfasis en la importancia de esto, como una de las grandes ventajas de su ecualización paramétrica digital. Y bueno, MQA también, pues esto es básicamente el punto central de su tecnología (en su caso evitando este mismo efecto que llaman "time smearing", por los brickwall de los archivos digitales de sampling bajos). También es bien notorio que la app de KEF para controlar las wireless tiene un switch específico para el time alignment, y creo que en sus papers dicen que eso haría que la Meta wireless suene algo mejor que la pasiva.

Al respecto, es interesante escuchar lo que dice Alan Parsons en una entrevista que subió un forero ayer, hablando de los formatos análogos (vinilos) vs digitales de alto sampling, donde dice que le gusta como suena la explosividad de cosas como las percusiones en estos formatos digitales de sampling altos. Ese es justamente una de las cosas donde se nota esto del time alignment (otra es en la precisión del imaging, emho). Y la falta de eso, la "suavización" de todo, creo yo que es lo que le gusta a la gente de los vinilos.

Ya me olvidé de los detalles, pero un tiempo atrás estuve leyendo de este tema de los filtros FIR en artículos bien técnicos, y es bien encachado el asunto.

1: Audioquest Niagara 3000 >CD Sony XA50ES / Rega Planar 3, AT-OC9XML, Moon 110LP / Macmini (Tidal+Roon) > Theoretica BACCH4Mac >RME Babyface pro/ Mytek Brooklyn DAC > Rogue Audio Cronus Magnum III (KT120) >Magnepan 1.7i  

2: TV qled 55"/ Roon> Advance Acoustics MyConnect 50 > Kef LS50 Meta.  

"I've looked at life from both sides nowFrom win and lose and still somehowIt's life's illusions I recallI really don't know life at all" Joni Mitchell

Enlace al comentario
Compartir en otros sitios

hace 2 horas, pbanados dijo:

mmm... interesante punto. Ahora, en rigor la ecualización digital sería inherentemente mejor a la analógica, pues se pueden implementar filtros (especialmente los de tipo FIR: finite impulse response) que no afectan el time alignment, entre otras cosas (y por tanto, la respuesta a impulsos, pero esto es largo de explicar). En los análogos por cada elemento que pasa la señal (inductores, capacitores, etc) se van generando desfases de armónicos respecto de la fundamental.

Minidsp, por ejemplo, hace mucho énfasis en la importancia de esto, como una de las grandes ventajas de su ecualización paramétrica digital. Y bueno, MQA también, pues esto es básicamente el punto central de su tecnología (en su caso evitando este mismo efecto que llaman "time smearing", por los brickwall de los archivos digitales de sampling bajos). También es bien notorio que la app de KEF para controlar las wireless tiene un switch específico para el time alignment, y creo que en sus papers dicen que eso haría que la Meta wireless suene algo mejor que la pasiva.

Al respecto, es interesante escuchar lo que dice Alan Parsons en una entrevista que subió un forero ayer, hablando de los formatos análogos (vinilos) vs digitales de alto sampling, donde dice que le gusta como suena la explosividad de cosas como las percusiones en estos formatos digitales de sampling altos. Ese es justamente una de las cosas donde se nota esto del time alignment (otra es en la precisión del imaging, emho). Y la falta de eso, la "suavización" de todo, creo yo que es lo que le gusta a la gente de los vinilos.

Ya me olvidé de los detalles, pero un tiempo atrás estuve leyendo de este tema de los filtros FIR en artículos bien técnicos, y es bien encachado el asunto.

Claro, en teoría, la aplicación de equalizacion en digital es inocua y no genera los efectos de la analógica, pero, al mismo tiempo, la analógica es continua y la digital, por naturaleza, discreta. Desconozco si se puede aplicar algo así como el teorema de Nyquist a la equalizacion y con eso resolver, sumando 'ambos tracks'. No he trabajado nunca desarrollando software de audio así que sería un tema a investigar. No obstante, como comenté, al aplicar estos filtros de corrección, se aprecia que hay pérdida de calidad, similar a comprimir con pérdidas, por tratar de aterrizar lo que he percibido y describirlo en texto.

Ahora, en teoría, si se aplicase un alto sampling, los efectos no debiesen estar creo yo, pero los softwares existentes no parecen hacerlo, de hecho, solo capturan las mediciones a 44 o 48 khz en 16 bits. Tal vez por un tema de potencia de cómputo y para ser compatibles con cualquier PC de gama media-baja, o los CPUs y capacidades de memoria de los streamers que son bastante modestos en comparación con un PC/Mac

Editado por Bozon
Enlace al comentario
Compartir en otros sitios

Dirac en la versión de pc funciona en 96/24! Imagino que debería notarse menos el efecto. 

Roon Core, Topping D90SE, Pre de Linea Topping Pre90, Power Nad C298, Marten Django XL,  Pre phono Sugden PH4, Technics SL-1500C, Hana SL, Hana ML

 

Enlace al comentario
Compartir en otros sitios

hace 49 minutos, jaravenaa dijo:

Dirac en la versión de pc funciona en 96/24! Imagino que debería notarse menos el efecto. 

Lo que aprendí del asunto cuando usé REW y generé matrices de convolucion para cargar en Roon es que necesitas tener filtros en todas las combinaciones de sampling. No te basta con uno sólo para aplicar siempre. Pero eso es en un PC con un CPU 'grande' y gigabytes de RAM.

Los streamers que incorporan DSP dudo que tengan la capacidad de proceso para usar filtros de alta resolución (probablemente, los LS60 tengan la misma limitación). Todos usan cpus económicas de bajo rendimiento. Obviamente esto va evolucionando y mejorando con el tiempo y esta discusión puede no ser más que futilidad puesto que no sabemos como suenan aún (ni cuánto van a costar en Chile).

 

 

Editado por Bozon
Enlace al comentario
Compartir en otros sitios

Más info de los KEF ls60

 

https://darko.audio/2022/05/kef-celebrates-sixty-years-with-the-ls60-wireless/

 

"Los componentes electrónicos están alojados en un gabinete dedicado que ocupa el tercio inferior del gabinete del altavoz y se enfría con aire que pasa a través de una cavidad tipo buzón en la parte delantera del altavoz, donde el gabinete principal se encuentra con el zócalo, y sale por la parte trasera por encima del conector. lámina. En el altavoz principal, tenemos opciones de entrada cableadas para fuentes analógicas a través de conectores RCA, TOSLINK, coaxial y HDMI eARC, que se incluyó en lugar de USB, y una salida de subwoofer. El altavoz secundario también tiene su propia salida de subwoofer."

 

Enviado desde mi ASUS_I005DA mediante Tapatalk

 

 

 

 

Enlace al comentario
Compartir en otros sitios

hace 14 horas, Bozon dijo:

Claro, en teoría, la aplicación de equalizacion en digital es inocua y no genera los efectos de la analógica, pero, al mismo tiempo, la analógica es continua y la digital, por naturaleza, discreta. Desconozco si se puede aplicar algo así como el teorema de Nyquist a la equalizacion y con eso resolver, sumando 'ambos tracks'. No he trabajado nunca desarrollando software de audio así que sería un tema a investigar. No obstante, como comenté, al aplicar estos filtros de corrección, se aprecia que hay pérdida de calidad, similar a comprimir con pérdidas, por tratar de aterrizar lo que he percibido y describirlo en texto.

Ahora, en teoría, si se aplicase un alto sampling, los efectos no debiesen estar creo yo, pero los softwares existentes no parecen hacerlo, de hecho, solo capturan las mediciones a 44 o 48 khz en 16 bits. Tal vez por un tema de potencia de cómputo y para ser compatibles con cualquier PC de gama media-baja, o los CPUs y capacidades de memoria de los streamers que son bastante modestos en comparación con un PC/Mac

Sospecho q estás en un error conceptual en esto, q yo tb tenía hasta hace no mucho.

Según entiendo la teoría de Nyquist predice no solo que se necesitan solamente samplings del doble de la mayor frecuencia a registrar, sino que no somos capaces de resolver una discretización mayor a 20 khz*2. Si pudiéramos, entonces escucharíamos más allá de los 20 khz, pues ese mayor detalle en una onda compuesta podría, mediante transformadas fourier, descomponerse en varias ondas y las menores serían de más de 20 khz. Lo cual si lo piensas en términos físicos del oído, tiene lógica ( pero es largo de describir acá).

El objetivo de los sampling altos no es discretizar la señal más densamente (hacer más “redonda” la señal digitalizada), sino extender la captura más allá de los 20 khz. ¿Para qué, si no lo escuchamos? La teoría más creíble (respaldada por mqa) es para desplazar los filtros brickwall (*) del proceso de digitalización mucho más arriba. De esta forma las alteraciones de tiempo de estos filtros, modificando fases de armónicos, no alcanzan a penetrar en la zona audible.

aún si uno creyera que el oído puede resolver una discretización más densa sin tener necesariamente que escuchar más allá de 20 khz, tampoco tendría sentido hacerl, según Nyquist, pues lo que tu escuchas son las ondas análogas reconvertidas por el dac, para el cual 20.000 *2 es suficiente para reconstruir a la perfección cualquier combinación de sinusoides que puedas escuchar.

 

(*): para convertir una señal análoga capturada por un micrófono a digital, se necesita que esa señal no contenga frecuencias más altas que la mayor a registrar, 20 khz en redbook de un cd normal (de lo contrario el convertor entraría en ambiguedades: la misma señal podría interpretarse de más de una forma). El espacio que tiene el redbook para hacerlo es muy chico: entre 20 y 22 khz , que es menos de 1/6 de octava, donde para asegurarse que no se filtre nada, debe cortar como en 90 o 100 db la señal, usando entonces un filtro violentísimo, de más de 300db/octava (esto se llama “brickwall”, y que de hecho es imposible, por lo cual igual el cd normal tiene anomalías de alliasing). El problema de esto es que a más violento el filtro, más va corriendo los armónicos de la señal, haciendo más lenta la respuesta a impulsos del archivo digitalizado. Eso es lo que se evita con samplings más altos.

Editado por pbanados

1: Audioquest Niagara 3000 >CD Sony XA50ES / Rega Planar 3, AT-OC9XML, Moon 110LP / Macmini (Tidal+Roon) > Theoretica BACCH4Mac >RME Babyface pro/ Mytek Brooklyn DAC > Rogue Audio Cronus Magnum III (KT120) >Magnepan 1.7i  

2: TV qled 55"/ Roon> Advance Acoustics MyConnect 50 > Kef LS50 Meta.  

"I've looked at life from both sides nowFrom win and lose and still somehowIt's life's illusions I recallI really don't know life at all" Joni Mitchell

Enlace al comentario
Compartir en otros sitios

1 hour ago, pbanados dijo:

Sospecho q estás en un error conceptual en esto, q yo tb tenía hasta hace no mucho.

Según entiendo la teoría de Nyquist predice no solo que se necesitan solamente samplings del doble de la mayor frecuencia a registrar, sino que no somos capaces de resolver una discretización mayor a 20 khz*2. Si pudiéramos, entonces escucharíamos más allá de los 20 khz, pues ese mayor detalle en una onda compuesta podría, mediante transformadas fourier, descomponerse en varias ondas y las menores serían de más de 20 khz. Lo cual si lo piensas en términos físicos del oído, tiene lógica ( pero es largo de describir acá).

El objetivo de los sampling altos no es discretizar la señal más densamente (hacer más “redonda” la señal digitalizada), sino extender la captura más allá de los 20 khz. ¿Para qué, si no lo escuchamos? La teoría más creíble (respaldada por mqa) es para desplazar los filtros brickwall (*) del proceso de digitalización mucho más arriba. De esta forma las alteraciones de tiempo de estos filtros, modificando fases de armónicos, no alcanzan a penetrar en la zona audible.

aún si uno creyera que el oído puede resolver una discretización más densa sin tener necesariamente que escuchar más allá de 20 khz, tampoco tendría sentido hacerl, según Nyquist, pues lo que tu escuchas son las ondas análogas reconvertidas por el dac, para el cual 20.000 *2 es suficiente para reconstruir a la perfección cualquier combinación de sinusoides que puedas escuchar.

 

(*): para convertir una señal análoga capturada por un micrófono a digital, se necesita que esa señal no contenga frecuencias más altas que la mayor a registrar, 20 khz en redbook de un cd normal (de lo contrario el convertor entraría en ambiguedades: la misma señal podría interpretarse de más de una forma). El espacio que tiene el redbook para hacerlo es muy chico: entre 20 y 22 khz , que es menos de 1/6 de octava, donde para asegurarse que no se filtre nada, debe cortar como en 90 o 100 db la señal, usando entonces un filtro violentísimo, de más de 300db/octava (esto se llama “brickwall”, y que de hecho es imposible, por lo cual igual el cd normal tiene anomalías de alliasing). El problema de esto es que a más violento el filtro, más va corriendo los armónicos de la señal, haciendo más lenta la respuesta a impulsos del archivo digitalizado. Eso es lo que se evita con samplings más altos.

Según estuve leyendo, si bien Nyquist es un teorema matemático del mundo ideal, en la práctica sirve como referencia absoluta no más. El problema es que las implementaciones reales necesitan cuantizar las capturas de los puntos del sampling y ahí se introducen errores de resolución (precisión) (relacionado con la profundidad de bits) y de tiempo (relacionado con jitter y, por tanto, con el sampling). Y, por tanto, al reconstruir la señal con algoritmos en sistemas físicos que no son del todo perfectos obviamente hay una distorsión, tanto inherente al equipo, como de arrastre del proceso de cuantización. Es decir nunca se logra implementar el teorema en el mundo real, son sólo aproximaciones las que tenemos. Los DACs utilizan de hecho mecanismos de interpolación entre los puntos del sampling. Estos algoritmos, evidentemente mientras más cercanas son las mediciones (mayor sampling) mejor es el resultado. De hecho, muchos equipos hacen interpolación lineal, por tanto, hay harto aliasing en la reconstrucción de la señal, que evidentemente disminuye muchísimo en samplings más altos. Si bien, es totalmente esperable que el aumento de las frecuencias y la resolución tengan, a medida que se aumentan los samplings y la profundidad, menor impacto en reducir la distorsión (ley de mejoras decrecientes y aumentos de "costos" exponenciales) estas mejoras existen y son de hecho medibles. (basta con ver los mismos chips sigma delta, que entregan mejores distorsiones y mejores prestaciones de señal/ruido a samplings mayores. O mirar, por ejemplo el software HQPlayer que incorpora algoritmos de interpolación sofisticados y que requieren altas capacidades de cómputo para alimentar los DACs y obtiene resultados que se aprecian al escuchar).

Este tipo de cosas son observables de hecho en el osciloscopio. Cuando se alimentan ondas puras para hacer mediciones en los DACs se observan diferencias apreciables entre la señal ideal y la que el DAC genera. Por ahí vi un caso muy interesante de lo que genera un DAC como el QTEST de Chord vs un sigma-delta tipo AKM o Sabre. Pues resulta que el Chord genera visiblemente una aproximación sinusoidal mas fiel y esto tiene que ver de hecho, con la cantidad de "samples" (creo que chord le llama taps) que es capaz de interpolar el PFGA (los Chords van subiendo de precio en su escala de productos a medida que tienen una mayor capacidad de proceso de dichos taps). En ese sentido, el ránking de SINAD de ASR, tiende a medir relaciones señal/ruido por sobre fidelidad de reconstrucción. Y si bien, el ejemplo que coloco puede que no sean equipos con el menor ruido posible, en reconstrucción de señal son claramente superiores.

En resumen, según he investigado, Nyquist es un teorema que asegura la reconstrucción de una señal solamente en el mundo ideal de las matemáticas (es justamente el tema por el cual se ha negado tanto que el audio high res sirva) pero no existe en la realidad. Por ese motivo, el sampling y la profundidad de bits sí tienen impacto en los resultados finales "a la hora de los que hubo"...

Editado por Bozon
Enlace al comentario
Compartir en otros sitios

On 13-05-2022 at 12:21, Bozon dijo:

Según estuve leyendo, si bien Nyquist es un teorema matemático del mundo ideal, en la práctica sirve como referencia absoluta no más. El problema es que las implementaciones reales necesitan cuantizar las capturas de los puntos del sampling y ahí se introducen errores de resolución (precisión) (relacionado con la profundidad de bits) y de tiempo (relacionado con jitter y, por tanto, con el sampling). Y, por tanto, al reconstruir la señal con algoritmos en sistemas físicos que no son del todo perfectos obviamente hay una distorsión, tanto inherente al equipo, como de arrastre del proceso de cuantización. Es decir nunca se logra implementar el teorema en el mundo real, son sólo aproximaciones las que tenemos. Los DACs utilizan de hecho mecanismos de interpolación entre los puntos del sampling. Estos algoritmos, evidentemente mientras más cercanas son las mediciones (mayor sampling) mejor es el resultado. De hecho, muchos equipos hacen interpolación lineal, por tanto, hay harto aliasing en la reconstrucción de la señal, que evidentemente disminuye muchísimo en samplings más altos. Si bien, es totalmente esperable que el aumento de las frecuencias y la resolución tengan, a medida que se aumentan los samplings y la profundidad, menor impacto en reducir la distorsión (ley de mejoras decrecientes y aumentos de "costos" exponenciales) estas mejoras existen y son de hecho medibles. (basta con ver los mismos chips sigma delta, que entregan mejores distorsiones y mejores prestaciones de señal/ruido a samplings mayores. O mirar, por ejemplo el software HQPlayer que incorpora algoritmos de interpolación sofisticados y que requieren altas capacidades de cómputo para alimentar los DACs y obtiene resultados que se aprecian al escuchar).

Este tipo de cosas son observables de hecho en el osciloscopio. Cuando se alimentan ondas puras para hacer mediciones en los DACs se observan diferencias apreciables entre la señal ideal y la que el DAC genera. Por ahí vi un caso muy interesante de lo que genera un DAC como el QTEST de Chord vs un sigma-delta tipo AKM o Sabre. Pues resulta que el Chord genera visiblemente una aproximación sinusoidal mas fiel y esto tiene que ver de hecho, con la cantidad de "samples" (creo que chord le llama taps) que es capaz de interpolar el PFGA (los Chords van subiendo de precio en su escala de productos a medida que tienen una mayor capacidad de proceso de dichos taps). En ese sentido, el ránking de SINAD de ASR, tiende a medir relaciones señal/ruido por sobre fidelidad de reconstrucción. Y si bien, el ejemplo que coloco puede que no sean equipos con el menor ruido posible, en reconstrucción de señal son claramente superiores.

En resumen, según he investigado, Nyquist es un teorema que asegura la reconstrucción de una señal solamente en el mundo ideal de las matemáticas (es justamente el tema por el cual se ha negado tanto que el audio high res sirva) pero no existe en la realidad. Por ese motivo, el sampling y la profundidad de bits sí tienen impacto en los resultados finales "a la hora de los que hubo"...

Chuta, me entraron dudas con varias cosas que pusiste, pero en realidad, ya se fue del tópico del hilo esto (mejor estaría seguirla en el que abriste sobre los DAC).

Solo dos comentarios a la rápida: Dudo que ningún fabricante de DAC cuestione el teorema del Nyquist-Shannon, pues sería como un astrónomo criticando a la ley de gravedad como solo teórica. El teorema no es un invento, es un descubrimiento: ES..., no es "interpretable". Se puede abundar mucho en por qué esto es así, pero sugiero no hacerlo en este hilo.

Lo otro es sobre los taps de Chord, quien dicho sea de paso para explicarlos (entrevista muy conocida a propósito del M-Scaler en 6moons que después la busco si quieres),  parte diciendo que el teorema de Nyquist-Shannon permite precisión absoluta: si no se logra es por problemas de implementación de los DAC tradicionales, asociado a la relación señal-ruido del conjunto de funciones sin(x)/x   para la restitución de impulsos digitales como análogos. Hasta donde entiendo, los taps de los FPGA de los Chord no son un oversampling para "densificar" la señal entre samplings (de 44.1 Khz por ejemplo), sino parámetros adicionales para poder implementar estas funciones con(x)/x cercanas a infinito. Lo que busca Chord, según cuenta Robert Watts, no es densificar el sampling (que ya existe en la captura ADC), sino reducir los problemas de time smearing o impulsos... que es l mismo que busca MQA, pero en el segundo caso, involucrando la cadena completa desde creación del master hasta reproducción, y no solo reproducción como Chord.

En consecuencia, y dado el origen de esta derivada del hilo: las manipulaciones en el dominio digital por un DSP no debieran "empeorar" la señal (si están bien hechas). Tus aprehensiones son todas de conversión DAC, que son posteriores a esas manipulaciones.

Y solo para dejarlo en claro, también encuentro que los Chord suenan, muy, muy bien.

1: Audioquest Niagara 3000 >CD Sony XA50ES / Rega Planar 3, AT-OC9XML, Moon 110LP / Macmini (Tidal+Roon) > Theoretica BACCH4Mac >RME Babyface pro/ Mytek Brooklyn DAC > Rogue Audio Cronus Magnum III (KT120) >Magnepan 1.7i  

2: TV qled 55"/ Roon> Advance Acoustics MyConnect 50 > Kef LS50 Meta.  

"I've looked at life from both sides nowFrom win and lose and still somehowIt's life's illusions I recallI really don't know life at all" Joni Mitchell

Enlace al comentario
Compartir en otros sitios

1 hour ago, pbanados dijo:

Chuta, me entraron dudas con varias cosas que pusiste, pero en realidad, ya se fue del tópico del hilo esto (mejor estaría seguirla en el que abriste sobre los DAC).

Solo dos comentarios a la rápida: Dudo que ningún fabricante de DAC cuestione el teorema del Nyquist-Shannon, pues sería como un astrónomo criticando a la ley de gravedad como solo teórica. El teorema no es un invento, es un descubrimiento: ES..., no es "interpretable". Se puede abundar mucho en por qué esto es así, pero sugiero no hacerlo en este hilo.

Lo otro es sobre los taps de Chord, quien dicho sea de paso para explicarlos (entrevista muy conocida a propósito del M-Scaler en 6moons que después la busco si quieres),  parte diciendo que el teorema de Nyquist-Shannon permite precisión absoluta: si no se logra es por problemas de implementación de los DAC tradicionales, asociado a la relación señal-ruido del conjunto de funciones sin(x)/x   para la restitución de impulsos digitales como análogos. Hasta donde entiendo, los taps de los FPGA de los Chord no son un oversampling para "densificar" la señal entre samplings (de 44.1 Khz por ejemplo), sino parámetros adicionales para poder implementar estas funciones con(x)/x cercanas a infinito. Lo que busca Chord, según cuenta Robert Watts, no es densificar el sampling (que ya existe en la captura ADC), sino reducir los problemas de time smearing o impulsos... que es l mismo que busca MQA, pero en el segundo caso, involucrando la cadena completa desde creación del master hasta reproducción, y no solo reproducción como Chord.

En consecuencia, y dado el origen de esta derivada del hilo: las manipulaciones en el dominio digital por un DSP no debieran "empeorar" la señal (si están bien hechas). Tus aprehensiones son todas de conversión DAC, que son posteriores a esas manipulaciones.

Y solo para dejarlo en claro, también encuentro que los Chord suenan, muy, muy bien.

En lo que sí estoy de acuerdo contigo es en el beneficio de aumentar el bitrate, para reducir los errores "verticales" de discretización (pues, insisto, errores "horizontales" no existen a menos que uno tenga oido de perro o murciélago y entonces tu tímpano / yunque-martillo-estribo / sensores en la cóclea puedan resolver a menos que 40.000/343.000 milímetros las oscilaciones de presión de aire en tus pailas). Pero eso no tiene relación con oversampling. El tema en todo caso es re entretenido y si uno lograra discutirlo en forma civilizada (que por alguna razón es raramente posible en el foro), todos podríamos aprender mucho. Creo que nadie tiene la verdad absoluta entre los simples aficionados que componemos este foro.

Me imagino que en alguna época se puso de moda pasar de 16/44 a 24/48, creyendo que con eso se solucionaba todo. Pero olvidaban el problema de los filtros pasabajos (y específicamente de tipo brickwall) necesarios tanto en ADC como en DAC, y sus consecuencias en la respuesta de impulsos / corrimiento de fase de armónicos, etc. Tanto Chord como MQA hacen frente a este problema. Según yo entiendo la cosa, Chord lo hace mitigándolos (pero solo para la etapa DAC, obviamente), por la vía de innumerables taps, que extienden el dominio de la función sin(x)/x. En el caso de MQA, es lisa y llanamente evitando el uso de filtros brickwall desde la misma conversión a digital  y/o en la creación del master, codificando en la señal filtros alternativos convolucionales y de otros tipos pero muy extendidos (para que no afecten la resolución temporal), y luego interpretando esa codificación "incrustada" en el proceso DAC cuando reproduces ese archivo.

Editado por pbanados

1: Audioquest Niagara 3000 >CD Sony XA50ES / Rega Planar 3, AT-OC9XML, Moon 110LP / Macmini (Tidal+Roon) > Theoretica BACCH4Mac >RME Babyface pro/ Mytek Brooklyn DAC > Rogue Audio Cronus Magnum III (KT120) >Magnepan 1.7i  

2: TV qled 55"/ Roon> Advance Acoustics MyConnect 50 > Kef LS50 Meta.  

"I've looked at life from both sides nowFrom win and lose and still somehowIt's life's illusions I recallI really don't know life at all" Joni Mitchell

Enlace al comentario
Compartir en otros sitios

Un video review de las LS60

 

  • Tri Amp: Bajos: 2x ICEpower 125ASX2 mono 1.000W > Medios: Infineon Audamp24 GaN SINGLE-ENDED +Pre Nutube B1 by Nelson Pass>AMP Agudos: Infineon  IRAUDAMP21 Mosfet
  • Drivers OB Híbrido:  Bajos: DA RSS265hf-4 10" > Medios: SEAS A26RE4 10" > Agudos: Heil AMT ESS Large.
  • Otros: Crossover Activo RANE AC23  XO Digital Dbx Driverack Pa2 > DSP SONARWORKS >  DAC Gustard x16 MQA> > Chromecast Audio > NUC >TT DENON + NAGAOKA MP101+ PJ S 
  • AMP Audifonos: Burson Soloist SL MK2 >  Sennheiser 6xx >Fidelio X2HR
Enlace al comentario
Compartir en otros sitios

  • The title was changed to Altavoces KEF : Blade Meta + los nuevos y sorprendentes LS60 W !!!!!

Ok, al fin el review de Darkito sobre las LS60 wireless.: "Sprechgesang": no para jugoseros... se acabó el "amplifier hunting",  ya no va a haber en qué gastar la plata que no tenemos... quizás habrá que dedicarse a escuchar música no más...

"this loudspeaker is an absolute win"

Una observación interesante que hace es que para piezas chicas aún podría ser recomendable la combo de los LS50Meta pasivas + amplicador/streamer + SW KC62, por la flexibilidad en el control de bajos que te podría dar esa combo. Pero en piezas más grandes,  la sensación de escala y relajo en la entrega de los bajos (aunque con el SW se llegue un poco más abajo) que entregan estas columnas todo-en-uno LS60W es  muy superior, dice.

Lo comparó con combos armadas con parlantes JBL y las Klipsch Forte IV, y encontró superior en casi todo sentido el resultado con las LS60W.

 

 

 

1: Audioquest Niagara 3000 >CD Sony XA50ES / Rega Planar 3, AT-OC9XML, Moon 110LP / Macmini (Tidal+Roon) > Theoretica BACCH4Mac >RME Babyface pro/ Mytek Brooklyn DAC > Rogue Audio Cronus Magnum III (KT120) >Magnepan 1.7i  

2: TV qled 55"/ Roon> Advance Acoustics MyConnect 50 > Kef LS50 Meta.  

"I've looked at life from both sides nowFrom win and lose and still somehowIt's life's illusions I recallI really don't know life at all" Joni Mitchell

Enlace al comentario
Compartir en otros sitios

@pbanadosgracias por compartirlo Pablo, ya tengo entretrencion para la noche con esta review. Mis expectativas son altas.

Roon Core, Topping D90SE, Pre de Linea Topping Pre90, Power Nad C298, Marten Django XL,  Pre phono Sugden PH4, Technics SL-1500C, Hana SL, Hana ML

 

Enlace al comentario
Compartir en otros sitios

https://us.kef.com/pub/media/ls60-content/LS60W_WP.pdf

está muy, muy interesante el white paper de los ls60w. Un portento de Ingenieria top aplicada al audio.
Ver por ejemplo la explicación de la suspensión p-flex de los woofers, punto crítico en un gabinete infinito (sellado) como este, por las presiones internas que tienden a deformar esta suspensión y por tanto añadir distorsiones, que este diseño ribeteado evita. Tb los sensores en los conos, que retroalimentan al dsp y circuito de amplificacion reduciendo mucho las altas distorsiones en bajos que todos los parlantes tienen. O la explicación de por qué en el objetivo inicial de un gabinete lo más estrecho posible (13 cms, menos que un iphone!; para excelencia en imaging y coherencia de fases) la única solución para bajos extendidos es usar diseños activos.

en otro video decían que la calidad de bajos que entregan estas columnitas (con solo 12.5 litros el gabinete de bajos) es comparable a la de parlantes de us$20.000…
 

1: Audioquest Niagara 3000 >CD Sony XA50ES / Rega Planar 3, AT-OC9XML, Moon 110LP / Macmini (Tidal+Roon) > Theoretica BACCH4Mac >RME Babyface pro/ Mytek Brooklyn DAC > Rogue Audio Cronus Magnum III (KT120) >Magnepan 1.7i  

2: TV qled 55"/ Roon> Advance Acoustics MyConnect 50 > Kef LS50 Meta.  

"I've looked at life from both sides nowFrom win and lose and still somehowIt's life's illusions I recallI really don't know life at all" Joni Mitchell

Enlace al comentario
Compartir en otros sitios

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.

Invitado
Responder en este tema...

×   Pasted as rich text.   Paste as plain text instead

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.

×
×
  • Crear Nuevo...