domingo, 31 de julio de 2022

Qué electrodomésticos y dispositivos desenchufar en vacaciones, y consejos de cuáles apagar y cuáles dejar encendidos

Qué electrodomésticos y dispositivos desenchufar en vacaciones, y consejos de cuáles apagar y cuáles dejar encendidos

Vamos a explicarte de una manera sencilla qué hacer con tus electrodomésticos y dispositivos cuando te vayas de vacaciones, con consejos sobre cuáles desenchufar, cuáles desconectar o cuáles puedes dejar enchufados en diferentes contextos. Todo dependiendo del tipo de dispositivos que tengas en casa.

Para hacer esto, vamos a dividir el artículo en varias partes, y en cada una de ellas hablaremos de distintos tipos de electrodomésticos. De esta manera, podremos pararnos a hablarte de varios casos de uso o situación en algunos de ellos, de manera que puedas tomar una decisión informada dependiendo de tu caso.

El frigorífico es la decisión más difícil

Frigorifico

Cuando vas a irte de vacaciones es fácil pensar en simplemente apagarlo todo. Pero entonces, ¿qué pasa con tu nevera? Aquí sueles tener comida, y si lo dejas desenchufado se estropeará. Sin embargo, es un electrodoméstico que está encendido las 24 horas del día, y que por lo tanto siempre va a estar consumiendo electricidad.

Aquí, el qué hacer con él dependerá sobre todo de cuántos días te vayas a ir de vacaciones y cuánta comida tienes almacenada. Si vas a irte solo unos cuantos días, menos de una semana en total, posiblemente no merezca la pena hacer sobreesfuerzos y simplemente puedes dejarlo encendido. Sin embargo, en el caso de que te vayas más de una semana podrás ahorrar bastante electricidad.

Si no tienes demasiada comida, lo mejor sería intentar consumirla y dejar el frigorífico apagado para que se quede sin gastar electricidad. Aquí, los alimentos puedes consumirlos antes de irte de vacaciones, o también puedes donárselos a algún familiar, vecino o amigo. Pero la idea sería que no quede nada para que no se estropee y dejar la nevera o el congelador apagados para que no consuman electricidad.

En el caso de que tengas algo más de comida, hay otras cosas que puedes hacer. Por ejemplo, puedes subir un poco la temperatura para que consuma menos electricidad, algo que varios modelos pueden tener ya preconfigurado con un nombre similar al de modo de vacaciones.

Lo que suelen hacer estos modos o puedes hacer tú para imitarlos es subir unos grados la temperatura objetivo del frigorífico, haciendo que pase de los entre 3 o 5 habituales a entre 10 y 15 grados. De esta manera vas a bajar el consumo eléctrico de forma bastante notable, y podrás ahorrar mientras estás de vacaciones.

Sin embargo, hacer esto también tiene un punto negativo, y es que los alimentos que tengas dentro se conservarán peor, y puede hacer que algunas de las cosas que tengas en la nevera se estropeen. Conviene, por lo tanto, revisar las cosas que tienes dentro para ver qué puede haber que se vaya a estropear.

Además, si vas a subir su temperatura conviene limpiarlo bien por dentro para evitar que aparezcan bacterias por tener una temperatura más elevada, algo que acelerará el que los alimentos se estropeen y causará malos olores cuando vuelvas a casa y abras su puerta.

Otro consejo que debes tener en cuenta en el caso de que vayas a dejar la nevera en marcha pero con más temperaturas es que conviene evitar que la temperatura de la cocina suba demasiado para que se mantenga mejor la temperatura del interior. Para esto, es recomendable bajar persianas y toldos en la cocina para evitar que no entre el sol, y que dejes la ventana cerrada o incluso la puerta de la cocina.

Por lo tanto, en este punto todo va a depender un poco de lo mucho que te quieras complicar y de los días que te vayas. Si te vas a ir durante todo un mes o más de dos semanas posiblemente lo mejor sea consumir los alimentos y apagar el frigorífico, porque incluso si lo dejas encendido puede haber cosas que se estropeen igualmente, y ya puestos pues aprovechas y haces un poco de limpieza.

Pero si te vas a ir solo una o dos semanas y realmente no te importa demasiado poder ahorrar un poco mientras estás fuera, simplemente asegúrate de no dejar cosas que estén a punto de caducar o de estropearse, pero el resto puedes dejarlas con el frigorífico en marcha.

Lavadora y lavavajillas

Lavadora

La lavadora y el lavavajillas son electrodomésticos que no van a gastar casi electricidad mientras estés fuera y no los utilices. Sin embargo, también debes seguir algunos consejos cuando te vayas de vacaciones para evitar llevarte alguna mala sorpresa cuando vuelvas a casa.

Lo más importante para estos dos electrodomésticos es dejarlos siempre limpios y secos antes de irte de casa durante unos días. Así, evitarás que aparezcan microorganismos o que se generen malos olores para cuando vuelvas.

En el caso del lavavajillas, esto pasa por no dejar platos o cubiertos sucios y sin lavar dentro, debes asegurarte de que quede vacío y sin nada. Los platos y cubiertos, de hecho, mejor tenerlos todos limpios cuando te vayas, tanto los del lavavajillas como los del fregadero.

Lo mismo pasa con la lavadora. Es importante no dejar ropa sucia en su tambor, si has puesto una lavadora poco antes de que te vayas a ir, intenta limpiar la goma externa del tambor para que no quede nada de agua acumulada por ahí y provoquen que florezcan colonias de bacterias.

El resto de electrodomésticos

En el resto de electrodomésticos del hogar también debes cumplir con la máxima de dejarlos todos limpios y secos, independientemente de los que sean. El horno y microondas déjalos bien limpios por dentro, porque cualquier suciedad que quede ahí puede hacer que aparezcan bacterias, y quizá son dos que usamos más pero nos da más pereza utilizar.

Salvo que sean electrodomésticos que tengan comida dentro, no deberías tener ningún problema con dejarlos todos desenchufados. Y en el caso de que haya algún alimento, dependerá de si van a poder aguantar los días que estés fuera sin estropearse en el caso de que tengas el electrodoméstico apagado. Mira más arriba cuando te hablamos sobre el frigorífico.

Pero en general, lo normal es que sean electrodomésticos que no funcionan a no ser que los estés utilizando, por lo que no deberías tener problemas al dejarlos estar o desenchufarlos, siempre y cuando procures dejarlos limpios, sobre todo si te vas a ir durante bastantes días.

Calefacción, termo y aire acondicionado

Aire Acondicionado

Los equipos de climatización que tengas en casa, como el aire acondicionado o la calefacción, no los vas a necesitar mientras no estés en casa. Por lo tanto, lo mejor es dejarlos apagados o desenchufados para ahorrar el máximo consumo posible, y que no se quede funcionando.

Si alguno de estos climatizadores son inteligentes, como por ejemplo el aire acondicionado, entonces quizá puedas considerar la posibilidad de de dejarlo apagado pero enchufado, y configurarlo remotamente para que se ponga en marcha una hora antes de que tú llegues para encontrar la casa fresquita. Pero vamos, no es algo estrictamente necesario a no ser que haga mucho calor y tengas posibilidad de hacerlo.

Y con el termo no hay demasiada duda. No vas a necesitar agua caliente mientras estás fuera de casa, por lo que lo mejor es dejarlo desconectado y desenchufado, y ya lo pondrás en marcha luego cuando vuelvas. Así, no estarás gastando electricidad innecesariamente mientras estás fuera.

Televisor y ordenadores

Televisor

Tanto el televisor de tu casa como el ordenador, así como decodificadores de TV, dispositivos de televisión inteligente, reproductores multimedia, barras de sonido o tabletas. Todos estos dispositivos tienen en común que no los vas a utilizar, por lo que lo mejor es dejarlos todos apagados, y a ser posible completamente desenchufados por completo.

De esta manera vas a evitar el consumo que supone que se queden funcionando en segundo plano. Además, en el caso de algún tipo de subida de tensión o problema similar estarás corriendo menores riesgos. Apagados, desenchufados, y si están en regletas dejar estas regletas de enchufes también apagadas.

Posiblemente hayas escuchado alguna vez que los televisores OLED conviene dejarlos siempre en modo de espera y no desenchufarlos de la regleta. Pero esto es así para su uso cotidiano, para no desenchufarlos para solo unas horas. Cuando te vas de casa, lo mejor es desenchufarlos, puesto que no usarás su panel de la pantalla y no tendrás problemas con los ciclos de compensación para restaurar píxeles.

Equipos del hogar conectado

Los altavoces conectados, cámaras IP, y otros elementos del hogar conectados quizá son un poco más sensibles. En principio, la recomendación sería también la de dejarlos todos apagados y desenchufados para ahorrar electricidad y protegerlos. Sin embargo, debido a su naturaleza hay varios detalles a tener en cuenta, ya que quizá no quieras apagarlos todos porque alguno te va a ser útil.

Es verdad que no vas a necesitar altavoces conectados. Pero en algunos modelos como los HomePod de Apple, estos altavoces hacen también las veces de puente entre los dispositivos conectados a la infraestructura del hogar y tu móvil. Por eso, quizá quieras dejar uno de estos altavoces o el dispositivo que haga de puente conectado en el caso de que quieras acceder a los datos de alguno de los dispositivos.

Esto va relacionado con la otra cosa a tener en cuenta. Quizá quieras dejar algún termómetro inteligente, alguna cámara IP o algún otro dispositivo conectado que consideres importante. En ese caso, para poder acceder remotamente a los datos asegúrate de dejar el router encendido y cualquier otro dispositivo que necesites para hacer de puente.

En el caso de que vayas a dejar algunos dispositivos conectados activos durante tus vacaciones, conviene comprobar antes de salir que todo funciona adecuadamente. Además, también conviene que mires que todos tienen pilas y baterías cargadas lo suficiente como para funcionar sin problemas cuando estás fuera.

Además, en el caso de las cámaras es importante comprobar primero que todo funciona bien y puedes conectarte a ellas desde fuera de la WiFi de tu hogar. Así, si surgiera algún problema tendrías tiempo de reacción para solucionarlo, y no sería darte cuenta cuando ya estás lejos de casa sin poder hacer nada.

Router y equipos de red

Router

En el caso de que no tengas ningún dispositivo conectado o NAS que quieras mantener en funcionamiento, lo mejor va a ser siempre apagar por completo tu router y desenchufarlo. Así no solo ahorrarás electricidad, sino que evitarás que algún vecino aproveche que no estás para intentar entrar en tu red doméstica y tomar el control. No es algo fácil de hacer, peor cuando no estás para notar que algo va mal puede pasar. También apaga cualquier PLC o amplificador de WiFi.

En el caso de que tengas algún servidor multimedia o un NAS con contenido multimedia, tendrás que pensar qué quieres hacer. Si lo utilizas para almacenar fotos o vídeos y quieres acceder a ellos remotamente, entonces ni apagues el servidor ni apagues el router, y lo mismo en el caso de que tengas alguna app en el móvil para subir las fotos que sacas de viaje y quieres que se suban para mantener esa copia de seguridad.

Pero si este servidor multimedia o NAS lo usas solo cuando estás en casa, por ejemplo, para almacenar contenidos o películas que quieres ver en la tele, entonces no es necesario mantenerlo conectado si no lo vas a utilizar, ya que ahorrarás electricidad y ganarás en seguridad si lo apagas junto al router.

Si tienes alguna cámara IP o dispositivo del hogar conectado que quieras mantener, tal y como te hemos dicho más arriba entonces lo mejor es que mantengas el router conectado para que estos puedan funcionar correctamente y puedas acceder remotamente a estos dispositivos. Pero solo si los necesitas realmente.

En el caso de que la seguridad te preocupe pero necesites tener activado el router para tener WiFi con tus dispositivos conectados, puedes intentar disminuir la potencia de la WiFi. Esta es una opción que muchos routers suelen tener en su configuración, y con ell a evitarás que la señal salga demasiado de tu casa y que otros puedan acceder a ella desde fuera.

Apaga diferenciadores

Como ya sabes, en la entrada de tu casa tienes un cuadro eléctrico con varios diferenciadores. Cada uno de ellos apaga diferentes zonas de tu hogar, o sea que conviene que sepas cuáles apagan qué, y apagar los de los enchufes y luces que no vayas a usar. Eso sí, si quieres dejar algún dispositivo o electrodoméstico encendido, deja encendido el diferenciador que controla la llegada de corriente a ellos.

El diferenciador es la primera defensa de tu red eléctrica interna frente a subidas de tensión ocasionales, que pueden provocar que algún dispositivo se estropee de repente. Por eso, si vas a dejar por ejemplo tu despacho con todo apagado y desconectado, apaga el diferenciador de sus enchufes o desenchufa todos los dispositivos.

Esto solo lo debes hacer si sabes qué estás apagando, porque puede que vayas a apagar el diferenciador que le da corriente al horno pero este también se la de a la nevera que quieres dejar encendida. Pero dejar apagados todos los de las zonas que no necesites es siempre una medida extra de seguridad.

-
La noticia Qué electrodomésticos y dispositivos desenchufar en vacaciones, y consejos de cuáles apagar y cuáles dejar encendidos fue publicada originalmente en Xataka por Yúbal Fernández .



Gracias a Yúbal Fernández

La “Madre de todas las demos”: la increíble charla de hora y media de 1968 que adelantó cómo sería la informática moderna

La “Madre de todas las demos”: la increíble charla de hora y media de 1968 que adelantó cómo sería la informática moderna

En 90 minutos puedes ver una película, leerte unos cuantos capítulos de esa novela que empezaste el fin de semana, darte un buen paseo para desconectar o, si eres Douglas Engelbart, impartir una conferencia que anticipe los derroteros que seguirá la computación en lo que resta de siglo, un charla tan brutal, tan preclara, visionaria o directamente profética —¡La etiqueta es lo de menos!— que más de medio siglo después se recuerda aún como “La madre de todas las demos”.

90 minutos, eso es. Lo que lleva hacer un plum cake de chocolate.

En 1968 Engelbart, ingeniero del Stanford Research Institute (SRI), afrontaba un dilema. Si su carrera pudiese compararse con una partida de póquer podríamos decir que le había llegado el momento de marcarse un “all-in” de manual, jugársela e ir a por el todo o nada.

Junto a su equipo del Augmentation Research Center (ARC), en el SRI, llevaba ya unos cuantos años desarrollando el oN-Line System, un sistema que facilitaba el manejo de las computadoras e incluso el trabajo colaborativo. Entre otras herramientas, incorporaba recursos como los enlaces de hipertextos, interfaces gráfica de usuario o un hardware que simplificaba su uso.

Con la imagen de los mainframes mostrencos y las tarjetas perforadas aún en la pituitaria, el equipo de Engelbart se había consagrado a una meta ambiciosa: lograr una computación más asequible, sencilla y práctica que, en cierto modo, ayudase a expandir las capacidades humanas.

Jugársela al todo o nada

Y no les iba mal en el empeño. "En lugar de tarjetas perforadas, el On-Line System presentaba una pantalla similar a un radar con una interfaz gráfica de usuario (GUI) en la que el usuario manipulaba texto, símbolos y video en una serie de "ventanas" superpuestas. Por ejemplo, los usuarios pueden insertar, eliminar y mover texto dentro de un documento", señala el Smithsonian. La herramienta permitía incluso que varias personas trabajasen en un documento de forma simultánea.

Como parte de aquella peculiar cruzada a favor de la simplicidad informática, en Staford experimentaron también con hardware que le pusiese las cosas más fáciles a los usuarios.

En ARC tomaron forma, por ejemplo, un “teclado de acordes” que completaba el QWERTY, un lápiz óptico y varios prototipos de "mandos" para manejar el equipo, incluido uno que se controlaba con la rodilla y un bloque de madera provisto de cable y rueda que, dado su peculiar aspecto de roedor, acabó recibiendo el apodo de “mouse”. Sí, más o menos el Cromañón de los ratones que poco después incorporaban a sus computadoras Xerox y Apple y aún hoy utilizas con tu PC.

Todo aquello estaba genial, pero de fondo Engelbart y los suyos afrontaban un problema casi tan peliagudo como el desarrollo de nuevo hardware: ¿Cómo visibilizar semejante trabajo?

Al ingeniero del SRI y Bob Taylor, director de la Agencia para Proyectos de Investigación Avanzada (ARPA), uno de sus grandes apoyos financieros, se les ocurrió una solución. No era rompedora, ni siquiera medianamente original, pero podía funcionar: desplegar todo aquel bagaje en uno de los grandes escaparates del sector, la Fall Joint Computer Conference de finales de 1968.

2

Si salía bien podía suponer un campanazo. Si iba mal… Bueno, si la cosa se complicaba protagonizarían un sonoro batacazo profesional que desmerecería el trabajo que llevaban años realizando y, lo realmente peligroso, comprometerían cualquier financiación futura.

Así, sin presiones.

“Asumimos un riesgo inmenso”, recordaba tiempo después Engelbart.

Dispuestos a poner toda la carne en el asador, en marzo de 1968 solicitaron una sesión especial durante el congreso de San Francisco y la suerte quedó echada: su intervención se celebraría el 9 de diciembre de aquel mismo año en el Brooks Hall, un recinto con 2.000 asientos. El título de la charla avanzaba por dónde irían los tiros: "A Research Center for Augmenting Human Intellect".

Hoy puede parecernos raro, pero para Engelbart y los suyos el desafío no consistía solo en jugársela a todo o nada, templar los nervios y pulir bien el mensaje. La propia conferencia representaba un reto tecnológico en sí misma. Si querían demostrar su capacidad y hasta qué punto resulta revolucionaria, no podían andarse con remilgos presupuestarios: era el momento de tirar la casa por la ventana.

De entrada el equipo necesitaba conectar el auditorio en el que intervendría Engelbart en diciembre, en San Francisco, con las propias oficinas del SRI en las que trabajaba su equipo y estaba el mainframe, una instalación situada en Menlo Park, a unos 48 kilómetros de allí.

Durante meses el equipo de ARC se dedicó a ensamblar la infraestructura, instalar cámaras en el SRI y el auditorio, antenas receptoras, transmisores, un enlace de microondas y un módem casero para que los comandos de la consola de Engelbart se transmitiesen a Menlo Park.

La factura que acabó desembolsando ARPA ascendió a 175.000 dólares, suma más que respetable para la época. Un despliegue de “virguerías” —entiéndase, era 1968— para que el ingeniero pudiese demostrar con apoyo de 17 compañeros del ARC qué era capaz de hacer el On-Line System.

Para el 9 de diciembre de 1968 el sistema estaba perfectamente calibrado. Y los nervios, claro, a flor de piel. A sus casi 44 años Engelbart se había curtido ya en empresas, la universidad, había dirigido su propio equipo e incluso participado en la Segunda Guerra Mundial; pero aquel día en San Francisco se sentía —lo reconocía él mismo— como si le llevaran los demonios.

“All-in”.

3
4

Hoy la grabación de la conferencia puede parecernos anticuada, antediluviana, igual que las que muestran a Neil Armstrong dando zancadas sobre la granulosa superficie de la Luna, pero lo que los coetáneos de Engelbart vieron con un asombro creciente fue un auténtico despliegue de genio.

A lo largo de 90 minutos en los que en la sala no se escuchaba otra cosa que sus explicaciones, el ingeniero habló de hiperenlaces, videoconferencias, documentos compartidos y trabajo colaborativo, interfaces gráficos basados en ventanas, procesador de textos o gráficos.

A modo de colofón incluso explicó —recuerdan en el National Museum of American History— que el SRI estaba a punto de convertirse en el segundo nodo de ARPANet, la precursora del Internet que conocemos hoy en día. En 90 minutos, vamos, lo que lleva una siesta decente, el ingeniero de Stanford había trazado algunas de las claves de la computación del resto del siglo.

Y todo aderezado con demostraciones que hoy forman parte del pan diario de la informática pero que por entonces parecían casi casi atrezo de ciencia ficción, como los ratones de computadora.

Siguiendo con el símil de póquer, cuando acabó Engelbart comprobó que su apuesta había sido buena: cuando dejó de hablar en el auditorio empezaron a tronar los aplausos de sus colegas. “La gente estaba asombrada”, explicaría décadas más tarde uno de sus compañeros del SRI, William English, al New York Times: “En una hora, definió la era de la informática moderna”.

5
6
7

Cosas de la vida, que Engelbart y el resto de sus colaboradores del SRI fuesen capaces de ver e incluso señalar el camino no significa que estuviesen llamados a abanderar su desarrollo.

Poco después de aquel despliegue de talento de 1968 el equipo empezó a flojear en su empuje. Parte del personal cuestionó la deriva del laboratorio, se perdió financiación, surgieron otros centros de talento, como el de Xerox en Palo Alto (PARC)... Y, sencillamente, parte de la gente que trabajaba con Engelbart acabó buscando nuevos destinos, llevándose con ella lo aprendido.

Durante cierto tiempo mucha gente creyó de hecho que el mouse había sido un invento de Xerox. Que no fueran ellos los encargados de dar el siguiente paso no les quita mérito.

El veterano ingeniero no solo dibujó buena parte de la computación del siglo XX con puntería de profeta bíblico; ayudó también, y quizás eso resulte igual de relevante, a que mucha gente cambiase su imagen de la informática: dejase de verla como un mundo inaccesible, plagado de descomunales máquinas, complejas, corporativas y pensadas solo para laboratorios y firmas punteras, y pasase a entenderla como una herramienta útil para el día a día de los trabajadores.

No un arma. Ni un engranaje complicado. Tampoco como una forma de sustituir el esfuerzo humano. No. Un complemento, una forma de llevar las capacidades un poco más allá, de ampliar los límites. Como avanzaba ya en el título de su charla: "A Research Center for Augmenting Human Intellect".

“Si en su oficina usted dispusiera de una pantalla respaldada por una computadora que estuviera activa para usted todo el día y respondiera instantáneamente a todas sus acciones, ¿Cuánto valor podría obtener de eso?”, lanzó a modo de gancho Engelbart a su audiencia aquel otoño del 68.

-
La noticia La “Madre de todas las demos”: la increíble charla de hora y media de 1968 que adelantó cómo sería la informática moderna fue publicada originalmente en Xataka por Carlos Prego .



Gracias a Carlos Prego

La música se vive de otra manera en directo, y el porqué lo tiene la ciencia

La música se vive de otra manera en directo, y el porqué lo tiene la ciencia

La industria musical fue una de las que más sufrió durante la pandemia. Dos años de actividad intermitente entre ola y ola que limitaron la actividad a todas las escalas, desde las salas más pequeñas hasta los macrofestivales. La pandemia afectó a cómo disfrutamos de la música pero no nos quitó las ganas de disfrutarla en directo. Esto nos lleva a preguntarnos qué tiene la música en directo para que no podamos renunciar a ella.

Danza sincronizada. El ser humano es un animal principalmente social. Por eso no es de extrañar la escucha colectiva de música nos afecte en los más profundo. Lucía Vaquero Zamora, neurocientífica de la Universidad Complutense de Madrid, compiló recientemente en un artículo algunos estudios que señalaban la importancia del componente social de la música en directo, para así dar contexto a esta relación.

Una de las conclusiones que pueden sacarse de este texto es que nuestro entorno afecta a cómo percibimos la música, y el entorno de un concierto o festival puede ser propicio gracias a este componente social. En este contexto, lo bailable que sea la música también tendrá efecto sobre cómo la percibamos y cómo nos relacionemos con nuestro entorno.

La clave puede estar en la sincronía. La música facilita que grupos enteros de personas se muevan compartiendo un mismo ritmo. Esta sincronía tendría un efecto psicológico, y sería capaz de fomentar la confianza entre las personas, el sentimiento de filiación y la cooperación. Vamos, que escuchar música juntos nos acerca aún más.

Cuestión evolutiva. La música actuaría como “elemento facilitador que nos invita a movernos a su compás y a interactuar con nuestros semejantes” señala Vaquero Zamora. No está claro cual es el origen de la música, pero es evidente que nos lleva milenios acompañando (al menos 40), y durante la mayor parte de la historia, escuchar música ha sido un acto colectivo. En ocasiones ritual (pensemos en la música sacra) y en ocasiones puramente social (como la ópera en su época dorada).

No sería hasta que los aparatos de reproducción se popularizaran que la música entró en nuestras casas y pudo convertirse en un elemento más de nuestra vida privada. Y aun así la música en directo nunca se apagó. Quizá porque como señala Vaquero Zamora hablando de los festivales, ésta podría verse “como [un rito moderno] donde la música vuelve a ocupar su papel original”.

La neuroquímica de la música. No solo las condiciones externas afectan a nuestra vivencia musical. La neuroquímica tiene mucho que ver con cómo nos llega la música. La música ha sido vinculada con los niveles de hormonas relacionadas con nuestro bienestar. Un ejemplo de esto es la disminución de los niveles de cortisol detectados en participantes en un estudio realizado en 2013. Esta disminución se daba independientemente del gusto declarado por la música, es decir, si el tema se correspondía o no con los gustos musicales de los y las participantes.

Un estudio de 2012 estudió la relación entre la segregación de oxitocina y vasopresina en individuos con síndrome de Williams, una condición que, entre otros efectos en la conducta, causa en quienes lo padecen una singular afinidad con la música.

Ruido. No todo son ventajas en los conciertos. Por mucho que estemos adaptados para la escucha de música, nuestros oídos tienen límites sobre el volumen al que la podemos escuchar. La pérdida de audición es conocida como hipoacusia, y puede ser causada por la exposición repetida a sonidos a volúmenes excesivos. Esta exposición también puede causar tinnitus, un zumbido prolongado e incómodo en los oídos.

Consumo energético. Los festivales musicales se han convertido en un rasgo más del verano, como la playa, los chiringuitos y las fiestas populares. Pero esta forma de escuchar música en directo tiene también su problemática, y es que los festivales musicales se han convertido en ferias donde la música ocupa un lugar principal, pero está acompañada de multitud de entretenimientos. Y todo este conjunto implica un gran consumo energético.

En el contexto actual, el impacto de una alta demanda energética puede preocuparnos, pero a largo plazo, es quizá la huella de carbono de estos eventos la variable a vigilar. Es evidente que el consumo eléctirco de los equipos de luces y sonido es alto, pero a este hay que sumar el consumo realizado en desplazamientos, montaje y desmontaje, tratamiento de residuos, etc. En cualquier caso parece que habrá que esperar para saber cuál es la huella de carbono que dejen los festivales de esta temporada.

La economía de la música en vivo. Los festivales de música modernos cuentan con presupuestos millonarios y pueden tener también una repercusión millonaria en la economía de la zona. La economía de los festivales de música es compleja, y abarca desde las subvenciones que éstos reciben, al precio de las entradas, salario de artistas y trabajadores, efectos colaterales sobre el sector turístico y medioambiental… amén de la economía sumergida que puede aparecer en su entorno.

Sin embargo la música en directo a pequeña escala cuenta con su economía propia, que afecta a salas de concierto, entidades públicas, consumidores y artistas. Tan solo ciudades con escenas vibrantes pueden llegar a atraer turismo gracias a la música a pequeña escala (seguramente el ejemplo de esto sería Nueva Orleans), otros muchos aspectos de la economía sí están muy vinculados con la economía local.

Imagen | Wendy Wei

-
La noticia La música se vive de otra manera en directo, y el porqué lo tiene la ciencia fue publicada originalmente en Xataka por Pablo Martínez-Juarez .



Gracias a Pablo Martínez-Juarez

El subwoofer, el patito feo de la alta fidelidad, es en realidad el santo grial del acondicionamiento acústico

El subwoofer, el patito feo de la alta fidelidad, es en realidad el santo grial del acondicionamiento acústico

Algunas de las convicciones más arraigadas que tenemos los aficionados a la alta fidelidad no tienen unos fundamentos sólidos. De hecho, muchas de ellas son erróneas desde un punto de vista estrictamente técnico. Uno de los preceptos defendidos con más vehemencia por algunos entusiastas es la conveniencia de prescindir de un subwoofer en cualquier equipo destinado a la reproducción de música con la máxima fidelidad posible, especialmente si tenemos unas cajas acústicas de rango completo que nos entregan un extremo grave contundente.

En el ámbito del cine en casa, en cambio, los aficionados solemos aceptar sin reservas que un subwoofer es necesario si queremos reproducir el canal específico que contiene la mayor parte de la información vinculada a la reproducción de las bajas frecuencias. Sin embargo, aunque no es en absoluto una creencia popular, integrar un subwoofer en un equipo estereofónico dedicado a la reproducción de nuestra música con la máxima calidad posible no es ninguna herejía. Todo lo contrario. Es una gran idea, y la teoría acústica la ampara.

Lo sorprendente es que instalar una o varias de estas cajas acústicas no nos va a ayudar únicamente a incrementar la energía de las bajas frecuencias con el propósito de obtener un extremo grave con más extensión y pegada. Si nuestro equipo estereofónico incorpora unos monitores de dos vías con una capacidad de entrega de graves limitada no cabe duda de que recurrir a un subwoofer nos ayudará a restituir la información de bajas frecuencias que nuestros altavoces no son capaces de reproducir. Pero este no es el único rol relevante de un altavoz de subgraves.

Y es que, además, integrar un subwoofer puede ayudarnos a resolver con mucha eficacia buena parte de los problemas acústicos introducidos por la sala en la que hemos instalado nuestro equipo de alta fidelidad. Todas las habitaciones de nuestras casas tienen su propia impronta sonora, y habitualmente toman el control en determinadas frecuencias por debajo de los 200 Hz, provocando que una parte importante de la información musical contenida en estas frecuencias quede enmascarada por la distorsión o debido a la atenuación de su energía. Afortunadamente, este grave problema tiene solución. Y los subwoofers son unos aliados muy valiosos a los que merece la pena recurrir.

El origen del problema: los modos propios de nuestra sala de escucha

Las habitaciones en las que los entusiastas de la música solemos instalar nuestros equipos de alta fidelidad habitualmente tienen un tamaño que oscila entre los 7 u 8 y los 25 metros cuadrados, por lo que inevitablemente nuestras cajas acústicas van a estar relativamente cerca de las paredes. Las ondas sonoras emitidas por los altavoces de nuestras cajas acústicas se propagan a través del aire bajo la forma de cambios de presión, e inevitablemente al estar confinadas en el recinto cerrado que es nuestra sala de escucha interaccionan con las paredes, el suelo y el techo de la habitación, excitándolos.

La energía que contienen las ondas sonoras de baja frecuencia induce la aparición de ondas estacionarias, que son aquellas cuya longitud de onda coincide con la longitud física de la sala en alguna de sus dimensiones. Y cuando sucede esto, y es algo que se produce siempre en las habitaciones de tamaño moderado en las que solemos instalar nuestros equipos de música, esas ondas se refuerzan, introduciendo resonancias. Una forma intuitiva de identificar qué es una resonancia consiste en contemplarla como cada una de las frecuencias en las que una habitación se ve excitada por las ondas sonoras emitidas por las cajas acústicas, lo que provoca que la sala emita su propio sonido.

Y, precisamente, las resonancias generadas por las ondas estacionarias de nuestra habitación se conocen como modos propios o modos resonantes de la sala. Desde un punto de vista acústico los modos propios inducen la aparición de dos problemas. El primero de ellos consiste en que desvirtúan la respuesta en frecuencia de nuestro equipo en el punto de escucha, por lo que si colocamos un micrófono en esta posición y tomamos medidas no obtendremos la respuesta en frecuencia pura vinculada a nuestro equipo; mediremos la interacción que se produce entre las cajas acústicas y nuestra sala. Y con toda seguridad en las frecuencias que coinciden con los modos propios de la habitación se producirán atenuaciones y cancelaciones que inevitablemente enmascararán una parte importante de la información musical.

El segundo problema también es grave, aunque en vez de actuar sobre la respuesta en frecuencia altera la dimensión temporal de la señal musical. Esto significa, sencillamente, que las resonancias introducidas por la sala pueden provocar que la información musical que contienen las frecuencias que coinciden con los modos resonantes se prolongue en el tiempo más allá de lo adecuado. De alguna forma la sala emite su propio sonido al verse excitada por la energía de las ondas acústicas, y en estas condiciones, como podemos intuir, la información musical original queda desvirtuada.

Dynaudio18s
Algunos 'subwoofers', los más avanzados, incorporan su propio DSP, y es una herramienta muy valiosa porque puede ayudarnos a integrarlos en nuestro equipo estereofónico con más facilidad. El modelo de esta fotografía es el 18S de Dynaudio, y tiene su propio DSP.

Los 'subwoofers' son una herramienta de acondicionamiento acústico valiosa

Como acabamos de comprobar, los problemas a los que nos enfrentamos son graves y pueden provocar que un equipo estereofónico de buena calidad nos entregue un rendimiento muy pobre debido a la interacción de las cajas acústicas con nuestra sala de escucha. Afortunadamente, tenemos herramientas para superar en gran medida este desafío. Una forma de afrontarlo consiste en instalar en la habitación elementos de acondicionamiento acústico pasivo, como, por ejemplo, paneles fonoabsorbentes, trampas de graves o paneles difusores.

Si recurrimos a un profesional cualificado en el ámbito del tratamiento acústico probablemente conseguiremos resolver en gran medida las deficiencias que introduce nuestra sala en la señal musical. Pero no siempre es posible instalar elementos de corrección acústica en una sala, sobre todo si no se trata de una habitación dedicada exclusivamente a nuestro equipo de alta fidelidad. La presencia de una alfombra, unas cortinas gruesas y muebles repletos de libros, entre otros elementos decorativos, puede ayudarnos a actuar sobre las características acústicas de nuestra sala de una forma poco intrusiva, pero tenemos otra opción. Y funciona a las mil maravillas.

La segunda estrategia por la que podemos optar consiste en integrar uno o, mejor aún, varios subwoofers en nuestro equipo de alta fidelidad. Y es que además de extender la respuesta en frecuencia de nuestro equipo ‘por abajo’ y entregarnos un grave más contundente, algo que a muchos aficionados nos gusta, estas cajas acústicas especializadas en la reproducción de las frecuencias graves en la práctica actúan como un elemento de acondicionamiento acústico activo muy eficaz.

Uno o varios 'subwoofers' pueden ayudarnos a controlar con mucha precisión los modos propios de nuestra sala

Y lo hacen porque si las integramos correctamente con nuestras cajas acústicas y las colocamos en los puntos idóneos de nuestra sala podemos conseguir que atenúen drásticamente las resonancias y minimicen su impacto perjudicial en la señal musical original. Esto significa, sencillamente, que uno o varios subwoofers pueden ayudarnos a controlar con mucha precisión los modos propios de nuestra sala, de manera que nuestro equipo de música podrá expresarse mucho mejor y entregarnos todo su potencial.

Afortunadamente tenemos a nuestra disposición una gran cantidad de literatura técnica que respalda esta estrategia, y uno de los libros que a mí más me ha ayudado en este ámbito, y que os recomiendo con entusiasmo si os interesa la teoría acústica, es ‘Sound Reproduction: The Acoustics and Psychoacoustics of Loudspeakers and Rooms’, de Floyd E. Toole. Actualmente solo está disponible en inglés, pero si este idioma no os intimida merece mucho la pena leerlo porque es una herramienta muy rigurosa y bien fundamentada. También os recomiendo echar un vistazo al vídeo en el que Marc Gras y José Almagro abordan de una forma muy didáctica este tema.

Rew
La curva de respuesta en frecuencia que podemos ver en esta gráfica refleja la interacción que se produce típicamente entre unas cajas acústicas y la sala. Como podemos ver en algunas frecuencias se produce una variación de la intensidad de casi 40 dB, y es una auténtica barbaridad que es necesario corregir.

Buena parte de los expertos recomienda optar por varios subwoofers, y no únicamente por uno, siempre y cuando nuestro presupuesto y las características de nuestra sala de escucha nos permitan instalarlos correctamente. Esto se debe a que varias de estas cajas acústicas nos ayudarán a controlar con más precisión y flexibilidad los modos propios de nuestra sala. Sin embargo, integrar correctamente uno o varios subwoofers en un equipo de alta fidelidad no es sencillo.

Este procedimiento escapa al propósito de este artículo, pero si os interesa que lo expliquemos os proponemos que nos lo hagáis saber en los comentarios de este reportaje. Si os gusta la idea en el futuro prepararemos un artículo didáctico explicando con detalle cómo utilizar una herramienta gratuita y muy valiosa que puede ayudarnos a integrar uno o varios subwoofers correctamente en nuestro equipo de música: ‘Room EQ Wizard’, conocida popularmente como REW.

Imágenes: Wilson Audio | Dynaudio

Bibliografía: ‘Sound Reproduction: The Acoustics and Psychoacoustics of Loudspeakers and Rooms’, de Floyd E. Toole

-
La noticia El subwoofer, el patito feo de la alta fidelidad, es en realidad el santo grial del acondicionamiento acústico fue publicada originalmente en Xataka por Juan Carlos López .



Gracias a Juan Carlos López

Apple lanzó una consola en 1995. Fue un fracaso

Apple lanzó una consola en 1995. Fue un fracaso

Los últimos 80 y casi todos los 90 fueron una etapa convulsa en Apple. Con Steve Jobs despedido de la empresa que él mismo fundó, quedó una Apple desnortada y raquítica, que acumulaba multitud de ordenadores casi idénticos entre ellos, con cada vez menos capacidad de diferenciación no solo entre ellos, sino ante lo que ofrecía el mercado. En 1995 lanzó casi 50 ordenadores distintos.

En esa época Apple también hizo más lanzamientos que nunca más allá de los ordenadores. Cámaras fotográficas, ordenadores incrustados en televisores de tubo, PDAs... y hasta una videoconsola. Fue la Apple Pippin, que además nació con la vocación de ser algo más que una videoconsola. Un miniordenador capaz de ejecutar algo más que juegos, una especie de anticipo de lo que llegó dos décadas después con la Xbox One.

Demasiado cara para ser una consola, demasiado barata ser un ordenador

Con un mando a medio camino entre el boomerang y la banana, la Apple Pippin costaba 599 dólares... de 1995. Si ajustamos por inflación, su precio equivalente de hoy serían unos 1.200 dólares. Ni la PlayStation 5 más cargada a la venta en Wallapop en plena crisis de escasez de chips llegó a esos precios.

Lo paradójico es que hubiese sido más justo comparar su precio con el de los ordenadores de la época, mucho más caros, que con los de las consolas. Pero el marco mental en el que se encajó a Pippin fue el segundo, no el primero.

Tal y como presumía en la parte frontal de su carcasa mostrando el logotipo, en un detalle que espantaría a la Apple actual, tenía como corazón un procesador PowerPC 603e a 66 MHz, un módem de 14.400 bps (escaso para la carga de páginas web de la época) y una versión ligera de macOS, en aquel momento Mac OS, para ejecutar los títulos que se le instalaran vía lector de CD-ROM 4x, algo que ya le profería mayor avance que el de los cartuchos todavía predominantes en el sector.

Apple, que para entonces ya estaba en una situación financiera cada vez más comprometida, no buscaba un lanzamiento propio de esta consola, sino que pretendía licenciarla a terceros para que fuesen otros quienes se encargaran de venderla y, de paso, proveerla de contenido. Bandai fue el único que dio el paso.

De esa forma, Apple ganaría dinero con cada título vendido, no solo con la venta de hardware. En torno a veinte dólares por consola, y sobre un dólar por juego. No obstante, la intención era convertirla en más que una consola, y que terceros pudieran plantearla para el uso que quisieran. Una especie de dispositivo-lienzo.

Ese carácter versátil de ordenador ligero y videoconsola todo en uno no ayudó a su éxito. Le hacía ser demasiado cara. Un poco antes, 3DO, que había intentado replicar ese mismo modelo, tampoco tuvo éxito con un precio muy similar al que traía Pippin. Neo-Geo, la madre de todas las consolas caras, estaba todavía por encima.

Pippin quería ser algo abstracto entre un ordenador, una consola y un dispositivo capaz de ofrecer cualquier uso que un desarrollador quisiera enfocar

Para los primeros meses de vida de la Pippin ya había consolas mucho más exitosas y masivas, que concentraron la industria del videojuego: PlayStation, Nintendo 64, llegada el año posterior; o la Sega Saturn, más asentada. Todas ellas mucho más baratas.

El astuto lector se habrá dado cuenta de la paradoja: la Sega Saturn fue su rival coetánea, ni siquiera la Dreamcast, muy posterior. Sin embargo, la Dreamcast es la considerada como primera consola capaz de conectarse a Internet para jugar online contra otras personas. Pippin, como mínimo, ofrecía un módem integrado.

El catálogo de Pippin apenas llegó a una treintena de títulos, la mayoría con el sello Bandai, y eso sí, multitud de accesorios, además de otros "títulos" que llegaban al centenar pero eran más productos educativos que juegos como tal. Nada de esto impidió su fracaso. Aunque anteriormente hubo algún producto de cierto éxito en la industria del videojuego con el sello de la empresa de Cupertino, como el Apple II, este fue la primera gran incursión de Apple en el mundo de los videojuegos. Y su primer gran fracaso

100.000 unidades de Pippin fueron construidas. No se vendieron ni la mitad, solo 42.000. En eBay es posible encontrar modelos a la venta por entre 300 y 1.000 dólares. En 1997, hace veinticinco años, Apple decidió descontinuar de forma definitiva el proyecto.

Casi tres décadas después de su lanzamiento original, Apple sigue condenada en la industria del videojuego: aunque gana muchísimo dinero con ellos gracias a las compras in-app de los juegos conecta-3, batalla por turnos y similares que poblan la App Store, tiene una relevancia prácticamente nula frente a Sony, Microsoft, Nintendo, Electronic Arts y compañía. ¿Cambiará eso con alguna adquisición cercana?

Ilustración destacada: Freepik.

-
La noticia Apple lanzó una consola en 1995. Fue un fracaso fue publicada originalmente en Xataka por Javier Lacort .



Gracias a Javier Lacort

Tres experimentos «imposibles» de física cuántica que han demostrado funcionar, y que resultan muy difíciles de creer

Tres experimentos «imposibles» de física cuántica que han demostrado funcionar, y que resultan muy difíciles de creer

«Si crees que entiendes la física cuántica, en realidad no entiendes la física cuántica». No lo decimos nosotros. Lo dice Richard Feynman, Premio Nobel de Física por sus contribuciones a la electrodinámica cuántica y uno de los científicos más admirados del siglo XX. La mecánica cuántica estudia las leyes que gobiernan el mundo de lo muy pequeño, de las partículas, y las interacciones a las que están expuestas las estructuras atómicas y subatómicas. Y la mayor parte de esas reglas son radicalmente diferentes a las leyes con las que nos hemos familiarizado en el mundo en el que vivimos. En el mundo macroscópico.

Tanto Feynman como otros científicos que también han hecho aportaciones importantes a la mecánica cuántica han defendido con vehemencia que intentar entender esta rama de la física es un esfuerzo vano. Sus leyes son tan distintas a las que estamos acostumbrados a observar en el mundo macroscópico que escapan a nuestra comprensión. Por esta razón, lo razonable es aceptarlas una vez que han sido confirmadas experimentalmente. Sin más. Tomarlas como las leyes que describen el comportamiento del Universo, y que quizá no tengan un propósito. O quizá sí.

Las leyes de la mecánica cuántica son tan distintas a las que estamos acostumbrados a observar en el mundo macroscópico que escapan a nuestra comprensión. Lo razonable es aceptarlas una vez que han sido confirmadas experimentalmente. Sin darles más vueltas

Aceptar la complejidad y la capacidad de impregnar todo nuestro mundo que tiene la física cuántica es posiblemente la mejor forma de reconciliarse con esta disciplina científica. Los tres experimentos de los que os vamos a hablar en este artículo ilustran a la perfección lo antintuitivo que es este campo. Y también lo apasionante que puede llegar a ser si lo abrazas aceptando tu incapacidad para comprender sus leyes. Posiblemente en el futuro tendremos que seguir conformándonos con describirlas tal y como, de alguna manera, nos sugiere Richard Feynman con otra frase suya que merecidamente ha pasado a la posteridad: «Hay que tener la mente abierta, pero no tanto como para que se te caiga el cerebro al suelo».

El experimento de Stern y Gerlach

El espín es una magnitud cuántica. Lo sabemos gracias al experimento que los físicos alemanes Otto Stern y Walther Gerlach llevaron a cabo en 1922. Aquella investigación resultó crucial a la hora de afianzar las bases experimentales de la mecánica cuántica y nos ayudó a entender que las partículas tienen propiedades cuánticas. Y que, lo que es aún más sorprendente, cuando medimos esas propiedades las estamos alterando por el mero hecho de observarlas. Pero mejor empecemos por el principio.

El experimento de Otto Stern y Walther Gerlach resultó crucial a la hora de afianzar las bases experimentales de la mecánica cuántica y nos ayudó a entender que las partículas tienen propiedades cuánticas

Lo que hicieron Stern y Gerlach en su experimento fue lanzar un haz de átomos de plata para hacerlos chocar contra una pantalla después de que hubiesen atravesado un campo magnético no homogéneo generado por un imán. Los átomos de plata tienen un momento magnético que provoca que interaccionen con el campo magnético, y al observar la pantalla estos físicos se dieron cuenta de que unos átomos se habían desviado hacia arriba, y otros hacia abajo. Pero lo realmente sorprendente era que la huella que dejaban los átomos al impactar sobre la pantalla no cubría todos los posibles valores del espín.

Solo había dos grandes zonas de impacto claramente localizadas, de manera que una de ellas correspondía al espín positivo, y la otra al espín negativo, lo que refleja con meridiana claridad que se trata de una magnitud cuántica que no tiene una correspondencia en el mundo macroscópico que observamos en nuestro día a día. En ese caso ¿qué es el espín? No es sencillo definirlo de una manera que sea fácilmente comprensible, pero podemos imaginarlo como un giro característico de las partículas elementales sobre sí mismas que tiene un valor fijo y que, junto a la carga eléctrica, es una de las propiedades intrínsecas de estas partículas.

Sterngerlach

El electrón, que tiene espín 1/2, tiene que dar dos vueltas sobre sí mismo para recuperar su posición original. Esta característica es muy poco intuitiva, pero aún lo es menos el hecho de que al medir el espín de una partícula en un eje se destruye automáticamente la información de la medida en cualquier otro eje. ¿Por qué? Sencillamente porque así lo dictan las leyes de los sistemas atómicos y subatómicos. Como nos recuerda Feynman, lo mejor es asumir que la naturaleza se comporta de esta forma y no hacer esfuerzos vanos para intentar entender a qué obedece esta conducta.

El efecto Zenón cuántico

El nombre de este fenómeno se debe a Zenón de Elea, un filósofo griego del siglo V a. C. discípulo de Parménides, y fue descrito por primera vez por Alan Turing, el matemático inglés que afianzó las bases de la algoritmia y la inteligencia artificial, entre otros logros por los que ha pasado muy merecidamente a la historia. Turing se dio cuenta de que si observas un estado cuántico retrasas su evolución en el tiempo, de manera que si lo observas un número de veces infinito permanecerá en ese mismo estado indefinidamente. De nuevo estamos ante un fenómeno absolutamente contraintuitivo, que, a pesar de lo extraño que resulta, ha sido probado experimentalmente muchas veces.

Alan Turing estableció que si observas un estado cuántico un número de veces infinito permanecerá en ese mismo estado indefinidamente

Curiosamente, este fenómeno desempeña un papel esencial en el funcionamiento de los ordenadores cuánticos. Para entender por qué necesitamos repasar el principio de superposición de estados, que defiende que en un procesador cuántico de n cúbits un estado concreto de la máquina es una combinación de todas las posibles colecciones de n unos y ceros. Cada una de esas posibles colecciones tiene una probabilidad que nos indica, de alguna forma, cuánto de esa colección en particular hay en el estado interno de la máquina, que está determinado por la combinación de todas las posibles colecciones en una proporción concreta indicada por la probabilidad de cada una de ellas.

Como veis, es un tema complejo, pero aún no hemos llegado a la parte más interesante: el efecto de superposición cuántica solo se mantiene hasta el instante en el que medimos el valor de un cúbit. Cuando llevamos a cabo esta operación la superposición colapsa y el cúbit adopta un único valor, que será 0 o 1. Así funcionan, sin entrar en detalles aún más complicados, los ordenadores cuánticos. El colapso del estado de los cúbits fue descrito por Alan Turing mucho antes de la invención de estas máquinas, lo que refleja el inmenso legado que nos ha dejado este colosal científico. Si queréis indagar y conocer con más detalle cómo funcionan los ordenadores cuánticos os sugiero que echéis un vistazo al artículo que enlazo aquí mismo.

Ordenadorcuantico

La doble rendija de Thomas Young

El experimento de la doble rendija fue diseñado por el científico inglés Thomas Young en 1801 con el propósito de averiguar si la luz tenía naturaleza ondulatoria, o si, por el contrario, estaba constituida por partículas. El resultado que obtuvo en aquel momento le llevó a pensar que, tal y como habían pronosticado mucho antes Hooke y Huygens, la luz estaba constituida por ondas. Lo que Young no pudo imaginar es que muchos años más tarde, a principios del siglo XX, su experimento sería repetido en multitud de ocasiones para demostrar la dualidad onda-partícula, que es uno de los principios fundamentales de la mecánica cuántica.

El experimento de la doble rendija se usa para demostrar la naturaleza ondulatoria de la luz y la dualidad onda-partícula de la materia

Este fenómeno cuántico ha sido demostrado empíricamente en infinidad de ocasiones, y revela que no hay una diferencia fundamental entre las partículas y las ondas; las partículas pueden exhibir el mismo comportamiento de las ondas en unos experimentos, y preservar su naturaleza discreta en otros. A lo largo del siglo XX el experimento de Young se ha ido refinando poco a poco, y ya hace décadas que los científicos están convencidos tanto de la naturaleza ondulatoria de la luz como de la dualidad onda-partícula de la materia.

En su forma más sofisticada el experimento de la doble rendija consiste en lanzar una sucesión de electrones (aunque también pueden utilizarse protones o neutrones) hacia una pantalla, pero de manera que entre la fuente de electrones y la pantalla se interponga una lámina en la que previamente se han practicado dos rendijas muy finas. Al lanzar uno a uno los electrones hacia las rendijas y analizar posteriormente en qué zona de la pantalla han impactado, los científicos han comprobado que cada electrón pasaba por ambas rendijas simultáneamente, lo que demuestra, efectivamente, que se están comportando como si se tratase de ondas. En su experimento original Thomas Young utilizó un haz de luz en vez de electrones, pero el patrón de interferencia que obtuvo en la pantalla fue esencialmente el mismo que los científicos actuales obtienen al utilizar electrones u otras partículas.

Doblerendija

Lo mejor llega justo al final. Si os ha parecido sorprendente lo que hemos visto hasta ahora a lo largo de este artículo, preparaos. Si colocamos detrás de la doble rendija un instrumento que nos permite medir por cuál de ellas pasa cada electrón, el patrón de interferencia desaparece. Esto significa que en el momento en el que decidimos medir por qué rendija pasa un electrón deja de comportarse como una onda, y pasa a comportarse como una partícula. En ese momento comprobamos que pasa únicamente por una rendija, y no por las dos. De alguna manera hemos eliminado el efecto cuántico.

No obstante, lo más inverosímil es que no importa en qué momento decidimos llevar a cabo la medida. Si utilizamos el instrumento para comprobar por qué rendija ha pasado una partícula mucho tiempo después de que lo haya hecho y haya impactado sobre la pantalla, también se elimina el efecto cuántico, por lo que estamos alterando algo que ha sucedido con anterioridad, y que describe la forma en que la partícula se ha desplazado hacia la pantalla. Como veis, Richard Feynman tenía razón. Es preferible que aceptemos que la mecánica cuántica funciona así porque es lo que nos dicen los experimentos. No sirve de nada dar más vueltas a este asunto.

Imagen de portada: Killian Eon
Imágenes: Andrew pmk | NekoJaNekoJa

-
La noticia Tres experimentos «imposibles» de física cuántica que han demostrado funcionar, y que resultan muy difíciles de creer fue publicada originalmente en Xataka por Juan Carlos López .



Gracias a Juan Carlos López

sábado, 30 de julio de 2022

Me encanta Stadia y tiemblo pensando que Google lo termine cerrando

Me encanta Stadia y tiemblo pensando que Google lo termine cerrando

Vivir en minoría forja la personalidad. Lo saben los españoles que viven sin WhatsApp en el país que lo ha convertido en religión, y también los que usamos a Stadia como videoconsola. Cuando Google lanzó el servicio fui escéptico y tuve una mala experiencia probándolo, así que lo dejé correr.

Sin embargo, a finales de 2020, seducido por una de las imbatibles ofertas para hacerse con un videojuego rebajada que incluía de regalo un Chromecast Ultra y un mando oficial, di de nuevo el salto. El falluto Cyberpunk 2077 resultó ir mucho mejor en Stadia que en las consolas de la anterior generación, que seguían siendo amplia mayoría. Y ahí decidí quedarme. Cuando EA anunció que el FIFA 21 también llegaría a Stadia poco después decidí que ese sería mi nuevo hogar.

Juego en la nube = juego ubicuo

Los motivos por los que Stadia me convenció por completo fueron:

  • Me permitió dejar de tener un cacharro bajo el televisor. El Chromecast Ultra ni siquiera se ve.
  • Convirtió mi iPad y mi Mac (rían, rían) por primera vez en dispositivos en los que poder jugar de verdad.
  • Y básicamente me permitía jugar a juegos AAA allá donde estuviese, solo necesitando una conexión Wi-Fi (con datos móviles es mucho más complicado), independientemente de que estuviese en casa o no.

Al último punto se le puede enmendar argumentando que PS Remote Play o el juego remoto de Xbox permiten lo mismo. Sí, pero no. Nunca tuve una experiencia sostenida realmente satisfactoria con PlayStation, al menos. Curiosamente, con Stadia, pese a mi escasa fe inicial, sí: más allá de algún rascón puntual, el rendimiento y la fluidez siempre han sido estupendos.

Stadia

La madre del cordero fue cuando en un viaje me dio por probar qué tal iba Stadia desde el iPad, conectando un mando de PlayStation 5 y usando la red Wi-Fi del hotel, que no son conocidas por su velocidad ni por su estabilidad... y el desempeño fue perfecto.

Incluso el mando, que me horrorizó en su presentación —solo de ver esa cruceta me salieron un par de callos—, acabó siendo más que aceptable. Por debajo de los de PS5, Xbox y Nintendo Switch (el estupendo modelo Pro), pero todavía muy aceptable al fin y al cabo.

Ese día soleado que llevan siendo los casi dos años jugando con Stadia va teniendo cada vez más nubarrones: rumores que salen de vez en cuando aquí y allá anticipando un cierre para el que los amantes del juego en la nube no estamos preparados. Hay más propuestas, pero o siguen en fase de pruebas, o tienen un catálogo demasiado reducido como para ser una alternativa real.

Imaginando un futuro sin el juego en la nube

Pensar en tener nuevamente una consola de cinco kilos bajo el televisor, ocupando más espacio que un microondas, y no poder jugar igual de bien en otras pantallas, es como pensar que en España van a volver a permitir fumar en los bares: ya nos habíamos acostumbrado a esta comodidad.

Los últimos rumores, o filtraciones, o un poco de ambos de mayor fiabilidad hablaban de Google reconvirtiendo Stadia en un servicio corporativo para entregar "llave en mano" a empresas de distintos sectores sus propios videojuegos para incluirlo en sus entornos, como gimnasios que quieren gamificar la experiencia de su alumnado, por ejemplo. O para empresas como Peloton.

Además, durante este tiempo su equipo ha sido esquilmado, incluyendo la fuga de pesos pesados en el proyecto, y abandonaron el desarrollo de juegos propios, además de reducir las comisiones para atraer a los desarrolladores. No parece ninguna de estas señales un síntoma de el plan con Stadia va sobre ruedas. Más bien suena a que ya tendremos suerte si le vemos comerse los turrones.

Cada vez cuesta más pensar que Stadia tiene mucho futuro por delante. Una auténtica lástima

Un panorama que huele a ceniza exhalada por los siglos. Habrá que ver quién es capaz de reemplazar a Stadia. Se supone que Xbox Cloud Gaming, antes conocido como xCloud, que es quien más motivos tiene para apostar por el juego como servicio por encima de la venta de consolas físicas. Pero estamos en verano de 2022 y sigue con el cartel de "beta", algo que pide un poleo menta para poder digerirlo viniendo de toda una Microsoft.

Mucho antes de su presentación, Stadia era conocido como "Google Yeti", un nombre puesto en referencia a la mitología tibetana. Stadia aspiraba a convertirse en el abominable gamer de las nieves, pero se ha quedado en niño con disfraz de esqueleto pidiendo caramelos. Una lástima, porque cuando le haces caso descubres que es graciosísimo. Hora de revisitar las alternativas para el juego en la nube.

Xbox

-
La noticia Me encanta Stadia y tiemblo pensando que Google lo termine cerrando fue publicada originalmente en Xataka por Javier Lacort .



Gracias a Javier Lacort

Hay vida más allá de la Steam Deck: cinco alternativas de consolas portátiles con Windows que sí puedes comprar

Hay vida más allá de la Steam Deck: cinco alternativas de consolas portátiles con Windows que sí puedes comprar

La Steam Deck es la abanderada de los PC con formato de consola portátil para mover los títulos más ambiciosos. Pero no es la única: a la consola de Valve le han salido competidores para jugar estés donde estés. En esta guía de compra de PC consola portátiles con Windows encontrarás los principales dispositivos que puedes comprar para que aciertes con tu próximo dispositivo gaming.

https://ift.tt/tP1cMlY https://ift.tt/DSYUpu7 https://ift.tt/zQouBTh

Steam Deck

No fue la primera, pero es la que se lleva todos los focos. Empezamos por la que es la niña bonita de la categoría, ganándose este título a pulso por varias razones.

Para empezar, y como irás viendo a lo largo del artículo, su precio es de lo más competitivo (desde 419 euros, ahora en reserva) (aunque nuestra recomendación es que no apostéis por el modelo base: gastar un poco más merece la pena) frente a otras alternativas.

Por otro lado no hay que olvidar el buen hacer, la experiencia y el mercado de Valve. La firma ha lleva un gran trabajo adelantado en cuanto a desarrollo de hardware, optimización de batería y rendimiento, con cartas bajo la manga como el FSR de AMD de manera nativa en todos sus juegos.

No podemos olvidar el amplísimo catálogo de juegos de Steam, una garantía de entretenimiento durante horas en un dispositivo adaptado para que le sienten como un guante.

No obstante y como explica Valve ,"Steam Deck es un PC, por lo que puedes instalar software y sistemas operativos de terceros", así como otras plataformas como Xbox Game Pass por si te quedas con ganas de más. Además, al dock se le puede conectar cualquier periférico vía USB, incluyendo teclado y ratón, lo que facilita esta tarea.

Entre la crisis en la cadena de suministros y el hype, las unidades puestas a la venta han volado. Pero si no pudiste comprar una Steam Deck, siempre puedes optar por estas alternativas en forma consolas portátiles de terceros con Windows para jugar a tus juegos de PC.

Aya NEO Next

Next

A falta de que la modesta AyaNeo Air Plus y la nueva generación AYANEO2 salgan a la venta previsiblemente a finales de año (por el momento la primera solo está disponible en fase de financiación vía Indiegogo), a día de hoy las propuestas más interesantes del fabricante son la Aya Neo estándar y la Pro.

No obstante también puedes comprar la AYANEO 2021 en versión estándar y Pro, pero teniendo en cuenta la diferencia de precio y su hardware, probablemente te salgan más a cuenta las Next.

Antes de nada un matiz: la diferencia entre la estándar y la Pro solo afecta a la memoria RAM y el almacenamiento, pasando de 16 a 32GB y de 1 a 2TB respectivamente. En cualquier caso, montan una pantalla de 7 pulgadas de tipo IPS con resolución de 1.280 x 800 píxeles.

Pese a que cualquiera de las dos son unas bestias desde el punto de vista de hardware, es una pena que se haya quedado en la generación Ryzen 5000 y que su gráfica sea una Radeon Vega 8, que lastran el rendimiento del conjunto.

Estos matices podrían ser menos cruciales si la consola fuera más asequible, pero su PVP oficial son los 1.315 dólares (en Amazon disponible por 1547 euros con cupón.)

AYANEO NEXT PC portátil Ryzen blanco brillante; CPU AMD Ryzen 7 - 5825U; RAM LPDDR4x de 16 GB, SSD NVMe de 2 TB, pantalla táctil H-IPS de 1280 x 800p [AYA-NEO-NEXT-BW-2]

AYANEO NEXT PC portátil Ryzen blanco brillante; CPU AMD Ryzen 7 - 5825U; RAM LPDDR4x de 16 GB, SSD NVMe de 2 TB, pantalla táctil H-IPS de 1280 x 800p [AYA-NEO-NEXT-BW-2]

AYA NEO 2021 Dark Star PC Ryzen 4500U; 16GB de RAM LPDDR4x; 1TB de SSD NVMe; Pantalla táctil IPS de 1280x800p; USB-C Gen 3.2; Wi-Fi 6; Bluetooth 5.0 [AYA-NEO-2021-DARK-STAR].

AYA NEO 2021 Dark Star PC Ryzen 4500U; 16GB de RAM LPDDR4x; 1TB de SSD NVMe; Pantalla táctil IPS de 1280x800p; USB-C Gen 3.2; Wi-Fi 6; Bluetooth 5.0 [AYA-NEO-2021-DARK-STAR].

GPD Win 3

Win

La GPD Win 3 hace honor al título de PC gracias a que cuenta con un teclado físico (solo has de deslizar la pantalla) y un dock para expansión muy útil que te permitirá conectarle periféricos para exprimirla al máximo, por ejemplo un monitor para trabajar a la vieja usanza.

Y su hardware precisamente se corresponde a configuraciones propias de ordenadores para uso general, con procesadores de undécima generación Tiger Lake, los 16GB de RAM mínimos imprescindibles para una buena experiencia con un PC gaming y un SSD de 1TB. El talón de Aquiles para jugar vs. un ordenador está en la gráfica, una modesta Iris Xe.

De todas las consolas portátiles con Windows que vamos a ver,** esta es la más compacta, ligera y la que tiene una pantalla con diagonal menor**: solo 5,5 pulgadas con resolución de 1280x720 píxeles.

GPD WIN 3 i7 Plata PC portátil para juegos AAA ; Core i7 11th Gen, Xe Graphics, 16GB RAM, 1TB SSD, Windows 10 Gaming Laptop [W3-S-i7]

GPD WIN 3 i7 Plata PC portátil para juegos AAA ; Core i7 11th Gen, Xe Graphics, 16GB RAM, 1TB SSD, Windows 10 Gaming Laptop [W3-S-i7]

OneXPlayer

Onexplayer

Aunque en tiendas como Amazon puedes encontrar modelos como la ONEXPLAYER 1S, las consolas de esta firma a la venta son dos: OneXPlayer y el modelo más compacto, la ONEXPLAYER Mini.

Una de las bazas de la casa son sus alternativas: no solo puedes ir por la Mini, sino que además puedes elegir entre diferentes configuraciones de procesador, RAM, almacenamiento e incluso la versión de Windows, ya que las hay con lo último de Microsoft preinstalado si deseas lo más actualizado.

Estas son las versiones de la OneXPlayer (1458 euros) a secas que tiene a la venta su web oficial: con procesador de Intel, un único modelo con Core i7-1195G7, 16GB de memoria, 1TB de almacenamiento y Windows 10. Si te decantas por AMD como fabricante, entonces integrará el veterano Ryzen 7 4800 con 16GB de memoria RAM y Windows 11, con la opción de elegir entre un SSD de 512GB o del doble. Precisamente esa versión con AMD Ryzen 7 4800/16GB/512GB y Windows 11 es la más asequible del catálogo, con un PVP de 799 euros. Aunque sus prestaciones son interesantes, no es precisamente un dispositivo asequible.

Lo más llamativo de esta consola es el tamaño y la resolución de su pantalla: de 8,4 pulgadas y 2560x1600 píxeles, unas características para diferenciarse mejorando la experiencia aún a costa de sacrificar un poquito de portabilidad. Asimismo también cuenta con una batería notablemente más grande que sus competidoras.

  • Si prefieres algo más compacto, la OneXPlus Mini (1299 euros) se queda en 7 pulgadas de diagonal con resolución 1280 x 800 ppp, Windows 11 preinstalado, un procesador AMD Ryzen 7 5800U y tres opciones de almacenamiento que van de 512GB a 2TB. Su PVP parte de 1229 dólares.
ONEXPLAYER Mini con Intel i7-1195G7 (Quad-Core @ hasta 5.0GHz), 16GB LPDDR4x RAM; 1TB NVMe SSD; Pantalla de 7" 1920x1200p; Wi-Fi 6; Bluetooth 5.0; Windows 11 [OXP-MINI-1TB]

ONEXPLAYER Mini con Intel i7-1195G7 (Quad-Core @ hasta 5.0GHz), 16GB LPDDR4x RAM; 1TB NVMe SSD; Pantalla de 7" 1920x1200p; Wi-Fi 6; Bluetooth 5.0; Windows 11 [OXP-MINI-1TB]

ONEXPLAYER AMD Ryzen 7 - 4800U PC Gaming Handheld ; 16GB Dual-Channel RAM, 1TB NVMe SSD, 8.4" Touchscreen [OXP-AMD-4800U]

ONEXPLAYER AMD Ryzen 7 - 4800U PC Gaming Handheld ; 16GB Dual-Channel RAM, 1TB NVMe SSD, 8.4" Touchscreen [OXP-AMD-4800U]

Tabla resumen de especificaciones

Steam Deck

AYANEO Next (+ Pro)

AYANEO 2021 (+Pro)

GPD Win 3

OneXPlayer Mini

OneXPlayer

Tamaño y peso

298 mm x 117 mm x 49 mm Aprox. 669 g.

267 x 112 x 30 mm, 720g

106 x 255 x 20; 650 g.

198 x 92 x 27 mm; 560 g.

260 x 104 x 23 mm; 619g

288 x 130 x 21 mm; 820 g.

Procesador

CPU: AMD Zen 2 de 4 núcleos/8 hilos, 2.4-3.5 GHz (hasta 448 GFLOPS FP32) GPU: RDNA 2 con 8 unidades de cálculo, 1.0-1.6 GHz (hasta 1.6 TFLOPS FP32)

AMD Ryzen 7 5825U ZEN 3, 7nm, 8-núcleos, 16-hilos GPU: AMD Radeon Vega 8 2000MHz

AMD Ryzen 5 4500U 7nm 6-núcleos,6-hilos 2.3GHz Base Clock, 4.0GHz Max Boots Clock GPU: AMD Radeon Graphics, 1.50 GHz

Pro: AMD Ryzen 7 4800U 7nm 8-núcleos,16-gilos 1.8GHz Base Clock, 4.2GHz Max GPU: AMD Radeon Graphics, 1.75 GHz

CPU: Intel Core i5-1135G7 / Intel Core i7-1165G7 GPU: Intel Iris Xe 80 EUs (Core i5) /Intel Iris Xe 96 EUs (Core i7)

CPU: AMD Ryzen 7 5800U, Zen 3, 8 núcleos, 16 hilos, 1.90 GHz Base Frequency, 4.4 GHz Max Turbo Frequency GPU: AMD Radeon RX Vega 8

CPU: I7-1195G7, 4 cores 8 threads, 12M Cache, 2.90 GHz Base Frequency, 5.00 GHz Max Turbo / AMD Ryzen 4800U

GPU: Intel Iris Xe Graphics /AMD Radeon Graphics

RAM

16 GB de RAM LPDDR5 5500 MT/s

16GB LPDDR4x 4266MHz Pro: 32GB LPDDR4x 4266MHz

16GB 4266MHz LPDDR4x

16 GB LPDDR4X-4266 Mhz

16GB LPDDR4x 4266MHz

16GB LPDDR4x 4266MHz

Almacenamiento

Según modelo (todos incluyen una ranura para tarjetas microSD de alta velocidad):

eMMC de 64 GB (1 PCIe Gen 2) NVMe SSD de 256 GB (4 PCIe Gen 3) NVMe SSD de 512 GB de alta velocidad (4 PCIe Gen 3)

1TB M.2 (NVMe) 2280 Pro: 2TB M.2 (NVMe) 2280

1T Hard diskM.2 (NVMe)

1 TB SSD M.2 NVMe PCIe 4.0

512 GB /1TB/2TB M.2 2280(NVMe) PCle 3.0 x4

1TB M.2 2280(NVMe) PCle 3.0 x4 / 512 GB /1TB M.2 2280(NVMe) PCle 3.0 x4

Pantalla

LCD IPS de 1280 x 800 píxeles (relación de aspecto 16:10) 7" de diagonal 400 nits (típico) 60 Hz Táctil

7.0" LCD IPS 1280 X 800, Capacitiva 5 puntos

7" IPS 215 ppi HD con wide color gamut, 1280*800 píxeles, 500 nits de brillo

5,5 pulgadas 1.280 x 720 (287 ppp) Táctil IPS, 84% NTSC color gamut Gorilla Glass 5

7" IPS FHD con resolución 1280 x 800 ppp y 216 ppi, 10 puntos

8.4" IPS con resolución de 2560 x 1600 píxeles, 358 PPI

Conectividad

Bluetooth 5.0 (compatible con mandos, accesorios y audio) Radio wifi de doble banda, 2.4 GHz y 5 GHz, 2 x 2 MIMO, IEEE 802.11a/b/g/n/ac

WiFi 6 IEEE Bluetooth 5.2

WiFi 6 IEEE Bluetooth 5.2

Wi-Fi 6 Bluetooth 5

Wi-Fi6 / BT 5.0

Wi-Fi6 / BT 5.0

ALIMENTACIÓN Y BATERÍA

Batería de 40 Wh. 2-8 horas de juego

47Wh / 4100mAh 11.55V, Li-ion

47wh /4100mAh Li-ion 60W

44 Wh

12.450 mAh con carga a 65W GaN

15.300 mAh con carga a 65W PD

CONECTIVIDAD EXTERNA

USB-C compatible con modo alternativo DisplayPort 1.4; hasta 8K a 60 Hz o 4K a 120 Hz, USB 3.2 Gen 2

2 x USB-C con PD 3.0, DisplayPort 1.4, 4K 60fps y jack de 3.5mm

2 x USB 3.2 con soporte para DP y PC, 1 USB 3.2, jack de 3,5 mm

1 x USB-C (Thunderbolt 4) 1 x USB-A Toma de auriculares Lector de tarjetas MicroSD

USB-C 3.2 x2, USB-A 3.0 x 1, 3,5mm jack x1

USB 3.2 x2, USB 3.0 x1, 3.,5mm jack x1, TF Card slot x1

SOFTWARE

SO: SteamOS 3.0 (basado en Arch)

Windows 10 Home

Windows 10 Home

Windows 10 Home

Windows 11

Windows 11

PRECIOS

Desde 419 euros

Desde 1315 dólares

Desde 1015 dólares

Desde 799 euros

Desde 1229 dólares

Desde 799 dólares

Más ofertas

Si te haces de Amazon Prime, dispones de 30 días de prueba gratis (después 36 euros al año) para disfrutar de envíos rápidos gratis, accesorio prioritario a ofertas, servicios como Prime Video, Prime Music y almacenamiento de fotos ilimitado. Además, si eres estudiante, hacerte de Prime Student cuesta la mitad y dispones de 90 días de prueba. También puedes probar gratis durante 30 días servicios como Kindle Unlimited o Audible.

Puedes estar al día y en cada momento informado de las principales ofertas y novedades de Xataka Selección en nuestro canal de Telegram o en nuestros perfiles de Twitter, Facebook y la revista Flipboard.

En Xataka Selección publicamos las mejores ofertas en tecnología, informática y electrónica de los principales comercios de internet. Los precios y disponibilidad pueden variar tras la publicación.

Algunos de los enlaces de este artículo son afiliados y pueden reportar un beneficio a Xataka

-
La noticia Hay vida más allá de la Steam Deck: cinco alternativas de consolas portátiles con Windows que sí puedes comprar fue publicada originalmente en Xataka por Eva Rodríguez de Luis .



Gracias a Eva Rodríguez de Luis