Nicole Oresme, en el siglo XIV, descubrió la forma en que caen las cosas por el influjo de la gravedad. Todo genio crea sus precedentes, dijo Borges en alguna parte, y Galileo le dio la razón creando a Nicole Oresme, el erudito francés del siglo XIV que descubrió la forma en que caen las cosas por el influjo de la gravedad. No caen a velocidad constante, como un coche que avanza tranquilo por la carretera, sino con una velocidad que aumenta de forma constante, como un coche en el carril de aceleración para entrar en la autovía. Su velocidad crece en proporción al tiempo, y la distancia que recorre crece con el cuadrado del tiempo. Pero Oresme solo es conocido porque, dos siglos después, Galileo no solo redescubrió esa simple ley matemática, sino que demostró que así es exactamente como caen las cosas. Todas las cosas: una piedra de un kilo y otra de una tonelada. También caería así una pluma de no ser por la resistencia del aire, como demostró en la Luna el astronauta David Scott, del Apolo 15, cuatro siglos después.
La cosmología moderna proviene de una idea repentina que asaltó a Einstein en 1906, mientras aún trabajaba en la oficina de patentes de Berna: una persona en caída libre no sentirá su propio peso.
“La idea más feliz de mi vida”, la llamó Einstein. Tiene gracia que, tras 100.000 años de existencia de nuestra especie, hubiera que esperar a Einstein para que nos diéramos cuenta de eso. Seguramente, la gran mayoría de la gente que había experimentado la caída libre no pudo vivir para contarlo. Pero hoy cualquier visitante de un parque de atracciones puede descubrir la idea más feliz de Einstein. Los astronautas, de hecho, se entrenan para la ingravidez del espacio en un avión que sube muy alto, apaga los motores y se precipita en caída libre hacia la Tierra. Stephen Hawking no quiso morir sin vivir esa experiencia.
La teoría gravitatoria de Einstein, la relatividad general, se fundamenta por entero en la percepción repentina que le iluminó en la oficina de patentes de Berna: que una persona en caída libre no sentirá su propio peso, y que estar acelerando en un coche o en un ascensor es indistinguible de estar quieto y sometido a un campo gravitatorio, como el de la Tierra. Es una teoría de espíritu galileano, porque Galileo usó un argumento similar para mostrar que los humanos no tenemos por qué sentir que nuestro planeta está girando a toda pastilla alrededor del Sol. En la época, ésa era la principal crítica a la teoría copernicana.
Anne Archibald y sus colegas del instituto holandés de radioastronomía demuestran hoy en Nature que las percepciones de Galileo y Einstein son exactas con un montón de decimales de aval. La moraleja queda para el lector.
Fuente: El País, Javier Sampedro
Más: https://www.fisicalab.com/apartado/caida-libre#contenidos
http://www.areaciencias.com/Caida-libre.htm
Mostrando entradas con la etiqueta Stephen Hawking. Mostrar todas las entradas
Mostrando entradas con la etiqueta Stephen Hawking. Mostrar todas las entradas
domingo, 8 de julio de 2018
Caida Libre
Etiquetas:
Albert Einstein,
Anne Archibald,
Borges,
caída de los cuerpos,
ciencia,
física,
Galileo Galilei,
historia de la ciencia,
Nicole Oresme,
radioastronomía,
Stephen Hawking
martes, 14 de junio de 2016
CIENCIAS BÁSICAS VIII EDICIÓN (2015). STEPHEN HAWKING Y VIATCHESLAV MUKHANOV
Los físicos Stephen Hawking y Viatcheslav Mukhanov son los ganadores del Premio Fundación BBVA Fronteras del Conocimiento en la categoría de Ciencias Básicas por descubrir que las galaxias se formaron a partir de perturbaciones cuánticas en el principio del universo.
La materia se agrupa en el universo formando galaxias, cúmulos de galaxias y supercúmulos de galaxias. Esas grandes estructuras de materia llevan creciendo poco más de 13.000 millones de años, es decir, desde que el universo empezó a expandirse en el big bang. Pero ¿cómo empezó el proceso? ¿Por qué empezó a acumularse la materia? A principios de los años ochenta Hawking y Mukhanov, trabajando de forma independiente, dijeron que en el universo recién nacido, fracciones de segundo después de iniciarse la expansión, tuvo que haber fluctuaciones cuánticas que actuaron como semillas de las galaxias. Nadie creía entonces que llegara a ser posible demostrar experimentalmente su existencia, pero han bastado tres décadas para que ocurriera exactamente eso: en 2013 un satélite europeo confirmó plenamente las predicciones.
El físico ruso Mukhanov, actualmente catedrático de Cosmología en la Ludwig-Maximilians Universität de Munich, Alemania, explicó ayer tras recibir la noticia del premio que “ni en sus mejores sueños“ imaginó, al hacer su predicción sobre el efecto de las fluctuaciones cuánticas, que sus predicciones llegarían a ser demostradas experimentalmente.
Mukhanov, con 24 años, publicó su trabajo en 1981, cuando aún era un estudiante de doctorado en el Instituto de Física y Tecnología de Moscú, donde investigaba bajo la influencia de grandes físicos teóricos, entre ellos Yakov Zeldovich –uno de los creadores de la bomba atómica–. “Yo no trabajaba para hacer feliz a los experimentos, trabajaba para hacer feliz a Zeldovich“, dijo ayer Mukhanov en tono de broma, que recuerda no obstante el ambiente de gran libertad científica que se respiraba en ese grupo, aún en el régimen de la Unión Soviética. Mukhanov firmó su trabajo con G. Chibisov, fallecido en 2008.
En los años setenta la cosmología era un área “todavía muy especulativa”, señala Mukhanov. Se sabía que el universo está expandiéndose, y que era muy probable que hubiera estado muy caliente en el pasado. Pero no mucho más. Apenas había datos observacionales, lo que contribuía a que no fuera un área muy importante en la Física. Sin embargo la formación de las galaxias era una de las cuestiones consideradas más relevantes, y también pensaba en ella Stephen Hawking.
En 1982, empleando modelos distintos a los de Mukhanov y Chibisov, Hawking llegó a esencialmente las mismas conclusiones.
Como explica el acta del jurado, “Stephen Hawking y Viatcheslav Mukhanov propusieron que las fluctuaciones cuánticas microscópicas eran el origen de la estructura observable a gran escala del universo. Este planteamiento, ahora validado por las observaciones, es un resultado fundamental en la cosmología“.
Mukhanov “fue el primero,1981, en reconocer que la estructura del universo, incluyendo la formación de las galaxias, podía tener origen cuántico microscópico”, indica el acta. “En 1982, Hawking estudió de manera independiente un escenario para la aceleración cósmica en presencia de fluctuaciones cuánticas, llegando a la misma conclusión“.
Hawking es probablemente más conocido por sus aportaciones fundamentales a la física de los agujeros negros. La predicción de que los agujeros negros no solo absorben materia y energía sino que también emiten la llamada radiación de Hawking también deriva de la aplicación de la teoría cuántica a los agujeros negros, pero carece aún de confirmación experimental.
El trabajo por el que recibe este premio, en cambio “puede considerarse el descubrimiento más importante de los confirmados experimentalmente en la unificación de la física teórica fundamental de partículas con la cosmología“, señala el jurado.
La luz fósil del big bang
La confirmación experimental de la teoría de que las fluctuaciones cuánticas en el universo recién nacido dieron lugar a las galaxias y las demás acumulaciones de materia que hoy vemos en el universo proviene del estudio de la llamada radiación cósmica de fondo de microondas. Esta radiación es una luz que llena todo el cielo, invisible al ojo humano pero detectable con sensores específicos. Los astrofísicos la detectaron por primera vez de modo casual en los años sesenta, y descubrieron que contiene una gran cantidad de información sobre cómo era el universo cuando empezó a expandirse. La mera existencia de esta radiación cósmica de fondo se considera una de las más sólidas pruebas a favor del big bang, y ha sido sobre todo su estudio detallado lo que ha recabado los ansiados datos experimentales en cosmología. Gracias a ello la investigación del origen del universo es hoy un área de gran actividad.
El análisis en profundidad de la radiación de fondo empezó en los años noventa con el satélite COBE, de la NASA. Un tipo de información que los científicos sabían que debía contener la radiación de fondo tenía que ver precisamente con la formación de las galaxías. Si hoy se observan –como efectivamente ocurre- acumulaciones de materia, hay que suponer que en el principio del universo también hubo irregularidades, por muy pequeñas que fueran. Y esas irregularidades debían estar en la radiación de fondo, medibles en forma de variaciones de temperatura.
La predicción de Mukhanov y Hawking indicaba que el origen de esas irregularidades se debía a fluctuaciones cuánticas, y calculaba cómo se traducirían a variaciones de temperatura en la radiación de fondo.
Sin embargo, las medidas de los primeros satélites, aunque consolidaron a grandes rasgos el modelo del big bang, tenían un grado de precisión aún demasiado bajo como para confirmar o desmentir la teoría de Mukhanov y Hawking. Lo que Mukhanov llamó ayer “la palabra final” la puso el satélite Planck, de la Agencia Espacial Europea (ESA), en 2013. Planck midió la temperatura de la radiación de fondo en toda la bóveda celeste con una precisión nunca antes alcanzada –diezmilésimas de grado-, y pudo así detectar regiones donde esa temperatura variaba ligerísimamente. "Planck ha medido exactamente, con una precisión del 99,999999.... %, lo que habíamos predicho", dice emocionado Mukhanov.
“Hoy Zeldovich sería inmensamente feliz“, prosigue, si conociera las medidas realizadas por el satélite Planck.
Mukhanov mostró además su satisfacción por recibir el premio junto a Hawking, a quien admira y con quien tiene una muy buena relación. No fue posible ayer obtener declaraciones del físico británico.
¿Por qué fluctuaciones cuánticas?
Una derivación de la predicción de los galardonados conduce a un aspecto de la teoría del big bang que aún no se considera demostrado: la inflación. Así llaman los físicos a un brevísimo periodo nada más iniciada la expansión en que el universo creció de forma mucho más rápida a como lo ha seguido haciendo después. Para Mukhanov, la inflación es la mejor manera de explicar que las fluctuaciones cuánticas crecieron hasta dar lugar a las acumulaciones de materia actuales, pero admite que otros apuestan por hipótesis alternativas.
De lo que no hay duda es de que las fluctuaciones cuánticas existieron: sin ellas no hay manera de explicar las variaciones de temperatura medidas por Planck en la radiación de fondo. Ante la pregunta de por qué pensó en ellas cómo origen de las galaxias, Mukhanov responde: “¿Y quién sabe por qué se piensan las cosas?“. Sí explica que las fluctuaciones cuánticas son una conclusión obligada de uno de los principios sobre los que se sustenta toda la mecánica cuántica: el Principio de Incertidumbre de Heisenberg.
Este principio dice que no es posible tener una partícula en reposo absoluto en un punto dado: existe siempre una incertidumbre tanto en su posición como en su velocidad. Aplicado a una distribución homogénea de materia, como la que se supone que constituye el universo en sus primeros momentos, el principio de incertidumbre diría que no podemos localizar simultáneamente la materia y su velocidad y que, como consecuencia de ello, se producirían siempre irregularidades; es decir, las citadas fluctuaciones.
http://www.fbbva.es/TLFU/tlfu/esp/microsites/premios/fronteras/galardonados/2015/ciencias.jsp
Más información en El XL Semanal
La materia se agrupa en el universo formando galaxias, cúmulos de galaxias y supercúmulos de galaxias. Esas grandes estructuras de materia llevan creciendo poco más de 13.000 millones de años, es decir, desde que el universo empezó a expandirse en el big bang. Pero ¿cómo empezó el proceso? ¿Por qué empezó a acumularse la materia? A principios de los años ochenta Hawking y Mukhanov, trabajando de forma independiente, dijeron que en el universo recién nacido, fracciones de segundo después de iniciarse la expansión, tuvo que haber fluctuaciones cuánticas que actuaron como semillas de las galaxias. Nadie creía entonces que llegara a ser posible demostrar experimentalmente su existencia, pero han bastado tres décadas para que ocurriera exactamente eso: en 2013 un satélite europeo confirmó plenamente las predicciones.
El físico ruso Mukhanov, actualmente catedrático de Cosmología en la Ludwig-Maximilians Universität de Munich, Alemania, explicó ayer tras recibir la noticia del premio que “ni en sus mejores sueños“ imaginó, al hacer su predicción sobre el efecto de las fluctuaciones cuánticas, que sus predicciones llegarían a ser demostradas experimentalmente.
Mukhanov, con 24 años, publicó su trabajo en 1981, cuando aún era un estudiante de doctorado en el Instituto de Física y Tecnología de Moscú, donde investigaba bajo la influencia de grandes físicos teóricos, entre ellos Yakov Zeldovich –uno de los creadores de la bomba atómica–. “Yo no trabajaba para hacer feliz a los experimentos, trabajaba para hacer feliz a Zeldovich“, dijo ayer Mukhanov en tono de broma, que recuerda no obstante el ambiente de gran libertad científica que se respiraba en ese grupo, aún en el régimen de la Unión Soviética. Mukhanov firmó su trabajo con G. Chibisov, fallecido en 2008.
En los años setenta la cosmología era un área “todavía muy especulativa”, señala Mukhanov. Se sabía que el universo está expandiéndose, y que era muy probable que hubiera estado muy caliente en el pasado. Pero no mucho más. Apenas había datos observacionales, lo que contribuía a que no fuera un área muy importante en la Física. Sin embargo la formación de las galaxias era una de las cuestiones consideradas más relevantes, y también pensaba en ella Stephen Hawking.
En 1982, empleando modelos distintos a los de Mukhanov y Chibisov, Hawking llegó a esencialmente las mismas conclusiones.
Como explica el acta del jurado, “Stephen Hawking y Viatcheslav Mukhanov propusieron que las fluctuaciones cuánticas microscópicas eran el origen de la estructura observable a gran escala del universo. Este planteamiento, ahora validado por las observaciones, es un resultado fundamental en la cosmología“.
Mukhanov “fue el primero,1981, en reconocer que la estructura del universo, incluyendo la formación de las galaxias, podía tener origen cuántico microscópico”, indica el acta. “En 1982, Hawking estudió de manera independiente un escenario para la aceleración cósmica en presencia de fluctuaciones cuánticas, llegando a la misma conclusión“.
Hawking es probablemente más conocido por sus aportaciones fundamentales a la física de los agujeros negros. La predicción de que los agujeros negros no solo absorben materia y energía sino que también emiten la llamada radiación de Hawking también deriva de la aplicación de la teoría cuántica a los agujeros negros, pero carece aún de confirmación experimental.
El trabajo por el que recibe este premio, en cambio “puede considerarse el descubrimiento más importante de los confirmados experimentalmente en la unificación de la física teórica fundamental de partículas con la cosmología“, señala el jurado.
La luz fósil del big bang
La confirmación experimental de la teoría de que las fluctuaciones cuánticas en el universo recién nacido dieron lugar a las galaxias y las demás acumulaciones de materia que hoy vemos en el universo proviene del estudio de la llamada radiación cósmica de fondo de microondas. Esta radiación es una luz que llena todo el cielo, invisible al ojo humano pero detectable con sensores específicos. Los astrofísicos la detectaron por primera vez de modo casual en los años sesenta, y descubrieron que contiene una gran cantidad de información sobre cómo era el universo cuando empezó a expandirse. La mera existencia de esta radiación cósmica de fondo se considera una de las más sólidas pruebas a favor del big bang, y ha sido sobre todo su estudio detallado lo que ha recabado los ansiados datos experimentales en cosmología. Gracias a ello la investigación del origen del universo es hoy un área de gran actividad.
El análisis en profundidad de la radiación de fondo empezó en los años noventa con el satélite COBE, de la NASA. Un tipo de información que los científicos sabían que debía contener la radiación de fondo tenía que ver precisamente con la formación de las galaxías. Si hoy se observan –como efectivamente ocurre- acumulaciones de materia, hay que suponer que en el principio del universo también hubo irregularidades, por muy pequeñas que fueran. Y esas irregularidades debían estar en la radiación de fondo, medibles en forma de variaciones de temperatura.
La predicción de Mukhanov y Hawking indicaba que el origen de esas irregularidades se debía a fluctuaciones cuánticas, y calculaba cómo se traducirían a variaciones de temperatura en la radiación de fondo.
Sin embargo, las medidas de los primeros satélites, aunque consolidaron a grandes rasgos el modelo del big bang, tenían un grado de precisión aún demasiado bajo como para confirmar o desmentir la teoría de Mukhanov y Hawking. Lo que Mukhanov llamó ayer “la palabra final” la puso el satélite Planck, de la Agencia Espacial Europea (ESA), en 2013. Planck midió la temperatura de la radiación de fondo en toda la bóveda celeste con una precisión nunca antes alcanzada –diezmilésimas de grado-, y pudo así detectar regiones donde esa temperatura variaba ligerísimamente. "Planck ha medido exactamente, con una precisión del 99,999999.... %, lo que habíamos predicho", dice emocionado Mukhanov.
“Hoy Zeldovich sería inmensamente feliz“, prosigue, si conociera las medidas realizadas por el satélite Planck.
Mukhanov mostró además su satisfacción por recibir el premio junto a Hawking, a quien admira y con quien tiene una muy buena relación. No fue posible ayer obtener declaraciones del físico británico.
¿Por qué fluctuaciones cuánticas?
Una derivación de la predicción de los galardonados conduce a un aspecto de la teoría del big bang que aún no se considera demostrado: la inflación. Así llaman los físicos a un brevísimo periodo nada más iniciada la expansión en que el universo creció de forma mucho más rápida a como lo ha seguido haciendo después. Para Mukhanov, la inflación es la mejor manera de explicar que las fluctuaciones cuánticas crecieron hasta dar lugar a las acumulaciones de materia actuales, pero admite que otros apuestan por hipótesis alternativas.
De lo que no hay duda es de que las fluctuaciones cuánticas existieron: sin ellas no hay manera de explicar las variaciones de temperatura medidas por Planck en la radiación de fondo. Ante la pregunta de por qué pensó en ellas cómo origen de las galaxias, Mukhanov responde: “¿Y quién sabe por qué se piensan las cosas?“. Sí explica que las fluctuaciones cuánticas son una conclusión obligada de uno de los principios sobre los que se sustenta toda la mecánica cuántica: el Principio de Incertidumbre de Heisenberg.
Este principio dice que no es posible tener una partícula en reposo absoluto en un punto dado: existe siempre una incertidumbre tanto en su posición como en su velocidad. Aplicado a una distribución homogénea de materia, como la que se supone que constituye el universo en sus primeros momentos, el principio de incertidumbre diría que no podemos localizar simultáneamente la materia y su velocidad y que, como consecuencia de ello, se producirían siempre irregularidades; es decir, las citadas fluctuaciones.
http://www.fbbva.es/TLFU/tlfu/esp/microsites/premios/fronteras/galardonados/2015/ciencias.jsp
Más información en El XL Semanal
jueves, 12 de noviembre de 2015
Stephen Hawking sobre el futuro del capitalismo, la desigualdad... y la Renta Básica
El pasado jueves, (22-10). el reconocido físico y cosmólogo Stephen Hawking, dejó caer una verdadera bomba sobre el capitalismo y el futuro de la desigualdad. Con los rápidos avances tecnológicos de las últimas décadas (por ejemplo, la tecnología informática, la robótica), hemos visto crecer las desigualdades económicas a un ritmo alarmante, y como una especie de clase plutocrática de propietarios - es decir, los capitalistas - se volvían inmensamente ricos. Hawking cree que, si las máquinas no terminan por reemplazar el trabajo humano y produciendo todos nuestros productos, y continuamos la actual vía neoliberal, estamos en camino de convertirse en una suerte de distopía con una clase de grandes propietarios, con una riqueza inconmensurable, y una clase inferior de desposeídos - es decir, las masas - que vivirán en la pobreza extrema. En una sesión de “pregúntame lo que quieras” de Reddit, Hawkins escribió:
"Si las máquinas producen todo lo que necesitamos, el resultado dependerá de cómo se distribuyen las cosas. Todo el mundo podrá disfrutar de una vida de lujo ociosa si la riqueza producida por las máquinas es compartida, o la mayoría de la gente puede acabar siendo miserablemente pobre si los propietarios de las máquinas conspiran con éxito contra la redistribución de la riqueza. Hasta ahora, la tendencia parece ser hacia la segunda opción, con la tecnología provocando cada vez mayor desigualdad".
La sustitución del trabajo humano por máquinas ha sido siempre uno de los temores de la clase trabajadora. Al inicio de la revolución industrial, ese miedo dio lugar a una reacción violenta de los trabajador conocida como el movimiento ludita: en Inglaterra, los trabajadores textiles protestaron contra los despidos y las dificultades económicas destruyendo equipos industriales y fábricas. Hoy en día, ocurre de nuevo con la eliminación de muchos puestos de trabajo fabriles previamente estables en ciudades como Baltimore y Detroit, sustituidos en gran medida por la automatización. Este tipo de innovación tecnológica que tiene lugar en toda la historia del capitalismo es lo que Joseph Schumpeter llamó la "destrucción creativa", que describió como un "proceso de cambio industrial que revoluciona incesantemente la estructura económica desde dentro, destruyendo sin cesar la antigua, creando incesantemente una nueva”. Schumpeter llamó a este proceso “la característica esencial del capitalismo".
La destrucción creativa siempre ha resultado hasta ahora positiva para la sociedad. Aunque que las innovaciones eliminan puestos de trabajo para muchos, las nuevas tecnologías han creado históricamente nuevas industrias y nuevos empleos con ellas. Este proceso inherente del capitalismo aumenta rápidamente la productividad del trabajador y por lo tanto hace que los que eran hasta entonces bienes de lujo pasen a estar al alcance de sectores más amplios de la población. Las nuevas tecnologías ayudan a producir muchos más productos, que aumentan la oferta y empujan hacia abajo el precio para satisfacer la demanda.
Como he dicho anteriormente, históricamente, la destrucción creativa termina produciendo nuevos puestos de trabajo después de la eliminación de los antiguos. Pero actualmente podríamos estar tomando otra dirección, y la tecnología estaría eliminando más puestos de trabajo que los que crea. Nada ejemplifica esto mejor que los "tres grandes" fabricantes de automóviles en 1990 (GM, Ford, Chrysler) en comparación con las tres grandes empresas de tecnología de hoy en día. En 1990, los fabricantes de automóviles estadounidenses obtuvieron $ 36 mil millones en ingresos en total, y emplearon a más de un millón de trabajadores, en comparación con Apple, Facebook y Google hoy en día, que en conjunto consiguen más de un billón de dólares en ingresos pero, sin embargo, sólo emplean 137.000 trabajadores.
Y ¿qué ocurre con la industria manufactura estadounidense en comparación con el sector financiero? Desde la década de 1950, el sector financiero ha pasado de alrededor del 10 por ciento de las ganancias de las empresas nacionales a cerca del 30 por ciento actual (con un máximo de 40 por ciento a principios de siglo), mientras que la industria manufacturera ha caído de cerca del 60 por ciento de los beneficios empresariales a alrededor del 20 por ciento. Pero lo realmente revelador son los puestos de trabajo en EE UU de cada sector. El empleo en la industria financiera se ha mantenido bastante estable en los últimos sesenta años, menos de un 5 por ciento, mientras que la industria manufactura se ha reducido de un 30 por ciento a menos del 10 por ciento. Esto tiene mucho que ver con la financiarización de la economía estadounidense, pero también con el aumento de la automatización. Y esta tendencia se va a acentuar. Según un estudio de la Universidad de Oxford de 2013, hasta el 47% de los puestos de trabajo podrían ser informatizados en los próximos 10 o 20 años.
La clase media ha sido la más afectada en los últimos decenios, y lo continuará siendo duramente en las próximas décadas a este ritmo. De 1973 a 2013, por ejemplo, los salarios medios de los trabajadores sólo aumentaron un 9,2 por ciento, mientras que la productividad creció alrededor del 74,4 por ciento. Compárese esto con el período de post-guerra (1948-1973), en el que la productividad aumentó en un 96,7 por ciento y los salarios de los trabajadores el 91,3 por ciento. Al mismo tiempo, el uno por ciento de los salarios más altos han crecido un 138 por ciento desde 1979, mientras que la clase propietaria ha visto aumentar su riqueza a un ritmo acelerado. A finales de la década de los 70, el 0,1 superior poseía solo el 7,1 por ciento de la riqueza de los hogares en Estados Unidos, mientras que en 2012 esa cifra se había más que triplicado hasta el 22 por ciento, que es aproximadamente lo mismo que posee el 90 por ciento inferior de los hogares. Piénselo. El 0,1 por ciento de la población posee tanta riqueza como el 90 por ciento.
Estamos, como Hawking ha dicho, ante dos posibilidades. El futuro puede implicar aún más desigualdad si la tecnología sigue reemplazando la mano de obra y deja a las masas desempleadas y desposeídas (en la actualidad, esto parece lo más probable), o, si la riqueza se distribuye de manera más uniforme, todo el mundo puede disfrutar del "lujo ocioso", o como lo describió célebremente Karl Marx:
"En la sociedad comunista, en la que nadie tiene una esfera exclusiva de actividad, sino que cada uno puede realizarse en el campo que desee, la sociedad regula la producción general, haciendo a cada uno posible el hacer hoy una cosa y mañana otra distinta: Cazar por la mañana, pescar después de comer, criar ganado al atardecer y criticar a la hora de la cena; todo según sus propios deseos y sin necesidad de convertirse nunca ni en cazador, ni en pescador, ni en pastor, ni en crítico”.
El influyente economista John Maynard Keynes, creía que el futuro del capitalismo (en contraposición al socialismo o el comunismo, como Marx creía) brindaría esa existencia tranquila a los seres humanos. En su ensayo de 1930, "las Posibilidades económicas de nuestros nietos", predijo que el crecimiento y los avances tecnológicos que el capitalismo proporcionaba reducirían la semana laboral media a las quince horas en un siglo, por lo cual que hacer en el tiempo libre se convertirá en nuestra mayor preocupación. Sobre el dinero, Keynes adelantó una esperanzada predicción con su animada prosa habitual (salvo en su Teoría General, excepcionalmente árida).
"El amor al dinero como posesión -para distinguirla del amor al dinero como un medio para la satisfacción de las necesidades y los placeres de la vida -será reconocido como lo que es, una morbilidad algo repugnante, una de esas tendencias semi-criminales, semi-patológicas que se dejan con un estremecimiento en manos de los especialistas en enfermedades mentales".
Keynes hizo algunas predicciones proféticas en su día, pero esta no fue una de ellas. Hoy en día, parece que el análisis de Marx del capitalismo se adapta mejor a las grandes desigualdades económicas y la movilidad global del capital.
Sin embargo, nada está escrito en piedra. El auge de Bernie Sanders, por ejemplo, revela un creciente movimiento dispuesto a combatir el status quo neoliberal que ha llegado a dominar la política estadounidense (y mundial). Si la economía continúa su camino actual, la distribución de la riqueza ya no será sólo una cuestión moral sobre el nivel de desigualdad que como sociedad estamos dispuestos a aceptar, sino una cuestión de estabilidad política y económica. La propiedad del capital en última instancia, determinará ese futuro, pero hay otros movimientos e ideas políticas con ese futuro en mente, como la renta básica universal, gracias a la cual a todos los ciudadanos, una vez que llegan a cierta edad, se les proporcionaría un ingreso, que permitiría probablemente sustituir las redes de seguridad tradicionales. Suiza puede ser el primer país en adoptar esta política, y la votación probablemente tendrá lugar en 2016. El plan propuesto proporcionaría un ingreso mensual garantizado de $ 2.600 o $ 31.200 al año; en otras palabras, lo suficiente para que todo el mundo pueda sobrevivir y llevar a cabo un trabajo que realmente le satisfaga. Para la derecha a punto de gritar la palabra que empieza con M, hay que señalar que muchos conservadores e incluso libertarios, como FA Hayek, han apoyado esta idea. [1] Tiene una sorprendente historia de apoyo bipartidista, y podría, por lo menos, evitar la pobreza extrema en el futuro, si los robots y la tecnología de la información continúan sustituyendo empleos humanos.
La creciente desigualdad en todo el mundo ya no puede ser ignorada, y hacer frente a este y a otros problemas del capitalismo, como la degradación del medio ambiente, no sólo es moralmente correcto, sino lo más pragmático que se puede hacer.
Nota de la R.: [1] Hayek nunca defendió la Renta Básica, sí una renta mínima de inserción o, en todo caso, una renta garantizada condicionada.
Conor Lynch es un escritor y periodista que vive en la ciudad de Nueva York, ha publicado en Salon, Alternet, The Hill, y CounterPunch.
http://www.sinpermiso.info/textos/stephen-hawking-sobre-el-futuro-del-capitalismo-la-desigualdad-y-la-renta-basica
"Si las máquinas producen todo lo que necesitamos, el resultado dependerá de cómo se distribuyen las cosas. Todo el mundo podrá disfrutar de una vida de lujo ociosa si la riqueza producida por las máquinas es compartida, o la mayoría de la gente puede acabar siendo miserablemente pobre si los propietarios de las máquinas conspiran con éxito contra la redistribución de la riqueza. Hasta ahora, la tendencia parece ser hacia la segunda opción, con la tecnología provocando cada vez mayor desigualdad".
La sustitución del trabajo humano por máquinas ha sido siempre uno de los temores de la clase trabajadora. Al inicio de la revolución industrial, ese miedo dio lugar a una reacción violenta de los trabajador conocida como el movimiento ludita: en Inglaterra, los trabajadores textiles protestaron contra los despidos y las dificultades económicas destruyendo equipos industriales y fábricas. Hoy en día, ocurre de nuevo con la eliminación de muchos puestos de trabajo fabriles previamente estables en ciudades como Baltimore y Detroit, sustituidos en gran medida por la automatización. Este tipo de innovación tecnológica que tiene lugar en toda la historia del capitalismo es lo que Joseph Schumpeter llamó la "destrucción creativa", que describió como un "proceso de cambio industrial que revoluciona incesantemente la estructura económica desde dentro, destruyendo sin cesar la antigua, creando incesantemente una nueva”. Schumpeter llamó a este proceso “la característica esencial del capitalismo".
La destrucción creativa siempre ha resultado hasta ahora positiva para la sociedad. Aunque que las innovaciones eliminan puestos de trabajo para muchos, las nuevas tecnologías han creado históricamente nuevas industrias y nuevos empleos con ellas. Este proceso inherente del capitalismo aumenta rápidamente la productividad del trabajador y por lo tanto hace que los que eran hasta entonces bienes de lujo pasen a estar al alcance de sectores más amplios de la población. Las nuevas tecnologías ayudan a producir muchos más productos, que aumentan la oferta y empujan hacia abajo el precio para satisfacer la demanda.
Como he dicho anteriormente, históricamente, la destrucción creativa termina produciendo nuevos puestos de trabajo después de la eliminación de los antiguos. Pero actualmente podríamos estar tomando otra dirección, y la tecnología estaría eliminando más puestos de trabajo que los que crea. Nada ejemplifica esto mejor que los "tres grandes" fabricantes de automóviles en 1990 (GM, Ford, Chrysler) en comparación con las tres grandes empresas de tecnología de hoy en día. En 1990, los fabricantes de automóviles estadounidenses obtuvieron $ 36 mil millones en ingresos en total, y emplearon a más de un millón de trabajadores, en comparación con Apple, Facebook y Google hoy en día, que en conjunto consiguen más de un billón de dólares en ingresos pero, sin embargo, sólo emplean 137.000 trabajadores.
Y ¿qué ocurre con la industria manufactura estadounidense en comparación con el sector financiero? Desde la década de 1950, el sector financiero ha pasado de alrededor del 10 por ciento de las ganancias de las empresas nacionales a cerca del 30 por ciento actual (con un máximo de 40 por ciento a principios de siglo), mientras que la industria manufacturera ha caído de cerca del 60 por ciento de los beneficios empresariales a alrededor del 20 por ciento. Pero lo realmente revelador son los puestos de trabajo en EE UU de cada sector. El empleo en la industria financiera se ha mantenido bastante estable en los últimos sesenta años, menos de un 5 por ciento, mientras que la industria manufactura se ha reducido de un 30 por ciento a menos del 10 por ciento. Esto tiene mucho que ver con la financiarización de la economía estadounidense, pero también con el aumento de la automatización. Y esta tendencia se va a acentuar. Según un estudio de la Universidad de Oxford de 2013, hasta el 47% de los puestos de trabajo podrían ser informatizados en los próximos 10 o 20 años.
La clase media ha sido la más afectada en los últimos decenios, y lo continuará siendo duramente en las próximas décadas a este ritmo. De 1973 a 2013, por ejemplo, los salarios medios de los trabajadores sólo aumentaron un 9,2 por ciento, mientras que la productividad creció alrededor del 74,4 por ciento. Compárese esto con el período de post-guerra (1948-1973), en el que la productividad aumentó en un 96,7 por ciento y los salarios de los trabajadores el 91,3 por ciento. Al mismo tiempo, el uno por ciento de los salarios más altos han crecido un 138 por ciento desde 1979, mientras que la clase propietaria ha visto aumentar su riqueza a un ritmo acelerado. A finales de la década de los 70, el 0,1 superior poseía solo el 7,1 por ciento de la riqueza de los hogares en Estados Unidos, mientras que en 2012 esa cifra se había más que triplicado hasta el 22 por ciento, que es aproximadamente lo mismo que posee el 90 por ciento inferior de los hogares. Piénselo. El 0,1 por ciento de la población posee tanta riqueza como el 90 por ciento.
Estamos, como Hawking ha dicho, ante dos posibilidades. El futuro puede implicar aún más desigualdad si la tecnología sigue reemplazando la mano de obra y deja a las masas desempleadas y desposeídas (en la actualidad, esto parece lo más probable), o, si la riqueza se distribuye de manera más uniforme, todo el mundo puede disfrutar del "lujo ocioso", o como lo describió célebremente Karl Marx:
"En la sociedad comunista, en la que nadie tiene una esfera exclusiva de actividad, sino que cada uno puede realizarse en el campo que desee, la sociedad regula la producción general, haciendo a cada uno posible el hacer hoy una cosa y mañana otra distinta: Cazar por la mañana, pescar después de comer, criar ganado al atardecer y criticar a la hora de la cena; todo según sus propios deseos y sin necesidad de convertirse nunca ni en cazador, ni en pescador, ni en pastor, ni en crítico”.
El influyente economista John Maynard Keynes, creía que el futuro del capitalismo (en contraposición al socialismo o el comunismo, como Marx creía) brindaría esa existencia tranquila a los seres humanos. En su ensayo de 1930, "las Posibilidades económicas de nuestros nietos", predijo que el crecimiento y los avances tecnológicos que el capitalismo proporcionaba reducirían la semana laboral media a las quince horas en un siglo, por lo cual que hacer en el tiempo libre se convertirá en nuestra mayor preocupación. Sobre el dinero, Keynes adelantó una esperanzada predicción con su animada prosa habitual (salvo en su Teoría General, excepcionalmente árida).
"El amor al dinero como posesión -para distinguirla del amor al dinero como un medio para la satisfacción de las necesidades y los placeres de la vida -será reconocido como lo que es, una morbilidad algo repugnante, una de esas tendencias semi-criminales, semi-patológicas que se dejan con un estremecimiento en manos de los especialistas en enfermedades mentales".
Keynes hizo algunas predicciones proféticas en su día, pero esta no fue una de ellas. Hoy en día, parece que el análisis de Marx del capitalismo se adapta mejor a las grandes desigualdades económicas y la movilidad global del capital.
Sin embargo, nada está escrito en piedra. El auge de Bernie Sanders, por ejemplo, revela un creciente movimiento dispuesto a combatir el status quo neoliberal que ha llegado a dominar la política estadounidense (y mundial). Si la economía continúa su camino actual, la distribución de la riqueza ya no será sólo una cuestión moral sobre el nivel de desigualdad que como sociedad estamos dispuestos a aceptar, sino una cuestión de estabilidad política y económica. La propiedad del capital en última instancia, determinará ese futuro, pero hay otros movimientos e ideas políticas con ese futuro en mente, como la renta básica universal, gracias a la cual a todos los ciudadanos, una vez que llegan a cierta edad, se les proporcionaría un ingreso, que permitiría probablemente sustituir las redes de seguridad tradicionales. Suiza puede ser el primer país en adoptar esta política, y la votación probablemente tendrá lugar en 2016. El plan propuesto proporcionaría un ingreso mensual garantizado de $ 2.600 o $ 31.200 al año; en otras palabras, lo suficiente para que todo el mundo pueda sobrevivir y llevar a cabo un trabajo que realmente le satisfaga. Para la derecha a punto de gritar la palabra que empieza con M, hay que señalar que muchos conservadores e incluso libertarios, como FA Hayek, han apoyado esta idea. [1] Tiene una sorprendente historia de apoyo bipartidista, y podría, por lo menos, evitar la pobreza extrema en el futuro, si los robots y la tecnología de la información continúan sustituyendo empleos humanos.
La creciente desigualdad en todo el mundo ya no puede ser ignorada, y hacer frente a este y a otros problemas del capitalismo, como la degradación del medio ambiente, no sólo es moralmente correcto, sino lo más pragmático que se puede hacer.
Nota de la R.: [1] Hayek nunca defendió la Renta Básica, sí una renta mínima de inserción o, en todo caso, una renta garantizada condicionada.
Conor Lynch es un escritor y periodista que vive en la ciudad de Nueva York, ha publicado en Salon, Alternet, The Hill, y CounterPunch.
http://www.sinpermiso.info/textos/stephen-hawking-sobre-el-futuro-del-capitalismo-la-desigualdad-y-la-renta-basica
Etiquetas:
Apple,
capitalismo,
Chrysler,
destrucción creativa,
distopía,
F A Hayek,
Facebook y Google,
Ford,
futuro,
GM,
informática,
Karl Marx,
ludita,
Maynard Keynes,
renta básica,
robótica,
Schumpeter,
Stephen Hawking
sábado, 17 de enero de 2015
Persiguiendo a Stephen Hawking. La ecuación que Hawking quiere ver grabada en su lápida demuestra que los agujeros negros no lo son tanto, y dejan escapar radiación
Antes de que me inscribiera como estudiante de doctorado en la Universidad de Cambridge en 1964, me encontré con un cursillista que me llevaba dos años en los estudios. Andaba y hablaba con dificultad. Era Stephen Hawking. Me enteré de que sufría una enfermedad degenerativa y que no iba a acabar a tiempo su doctorado, pero de forma increíble ha sobrevivido por más de cincuenta años. Y no solamente se ha limitado a eso; se ha convertido en el científico más famoso del mundo, aclamado por sus brillantes investigaciones y sus best sellers sobre el espacio, el tiempo y el cosmos. Pero sobre todo, por su increíble triunfo sobre la adversidad”.
Estas magníficas pinceladas de Hawking nos las ofrece el legendario astrónomo británico Martin Rees, de la Universidad de Cambridge. Rees trabajó en el mismo edificio de la Facultad que él, y recuerda los días en que empujaba su silla hasta la oficina, cuando a veces Hawking le pedía que le abriese un abstruso libro de teoría cuántica. “Se quedaba ahí paralizado, durante horas, y ni siquiera podía pasar página. Me preguntaba por lo que pasaba por su mente, y si se estaba apagando. Pero en un año concibió la mejor idea que había tenido en su vida, encapsulada en una ecuación que quiere ver grabada sobre su lápida”.
Eran tiempos en los que Hawking todavía susurraba dentro de su parálisis. Ahora, el genio estaría completamente desconectado del mundo de no ser por su silla, recientemente renovada por el equipo de Intel. Hawking habla al mundo usando un único músculo, el de su mejilla. Sólo lo vi en una ocasión, hace años, pero la gente a su alrededor se quedaba impresionada cuando sonreía. La nueva silla es un prodigio de la tecnología: algoritmos que predicen textos avanzados e intuyen las palabras, infrarrojos que detectan el movimiento de la mejilla, medidores de la tensión y la temperatura, navegación por Internet, y la misma voz original diseñada por el ingeniero Dennis Klatt, del MIT, que Hawking no quiere abandonar.
Su enfermedad avanza inexorable; amenaza con romper algún día este cordón umbilical tecnológico. Pero mientras Hawking consiga no perder su último movimiento, su voz computerizada seguirá siendo parte de la cultura popular. Aparece mezclada con el punteo de la guitarra de David Gilmour en Talkin’ Hawking, el tema que Pink Floyd, la legendaria banda de rock sinfónico, le ha dedicado en su último álbum. Se rumorea que The Theory of Everything (La teoría del todo), la película de James Marsh sobre la vida del genio ya estrenada en EE UU, podría darle al actor Eddie Redmayne su primer Oscar por su sorprendente transformación.
Hawking aparece en The Big Bang Theory, Los Simpson y Star Trek. ¿Por qué se ha convertido en un icono de la cultura popular? “Lo siento, la cultura no es mi campo. Mi negocio es la ciencia”, nos responde Kip Thorne, el físico que asesoró a Christopher Nolan en Interestellar y uno de los mejores amigos de Hawking, a quien ayudó en momentos difíciles en su carrera. Lawrence Krauss –uno de los más inteligentes cosmólogos y hábil escritor científico– sí accede a enviarnos sus impresiones por correo electrónico. Hawking combina dos cosas que lo convierten en el científico perfecto para el público. “Inspira a la gente por su dolencia, su coraje personal para seguir adelante a pesar de obstáculos muy notables. Y también porque su trabajo versa sobre la relatividad general, la teoría que desarrolló Einstein. Así que para los periodistas es más fácil arroparlo con la manta de Einstein, lo que fascina al público”. Nicolás Cardiel, astrofísico de la Universidad Complutense de Madrid, no lo duda. “Gracias a su popularidad, la divulgación de ideas tan poco intuitivas y relacionadas con el origen mismo del universo, o los agujeros negros, consigue ver la luz”.
Martin Rees explica que esa ecuación que Hawking quiere ver grabada en su lápida demuestra que los agujeros negros no lo son tanto, y dejan escapar radiación. Es una idea que espera confirmación experimental, esencial en la teoría de las supercuerdas y objeto de debate 40 años después. Por eso Hawking no ha recibido (aún) el Nobel, pero sí el Premio Milner, que reconoce los avances en física teórica con tres millones de dólares.
Hawking mantiene intacta su capacidad de sorpresa. Alguien que rompe límites: así nos lo resume Rees, una de las personas que más le han acompañado a lo largo de su vida. “El concepto de una mente prisionera viajando a través del cosmos ha atrapado la imaginación de la gente. Si él hubiera obtenido la misma distinción en otra ciencia, pongamos la genética, en vez de la cosmología, el triunfo de su intelecto contra la adversidad probablemente no hubiera adquirido la misma resonancia ante el público de todo el mundo”.
Fuente: El País semanal. http://elpais.com/elpais/2015/01/12/eps/1421060204_320236.html
miércoles, 7 de enero de 2015
¿Ha matado la ciencia a la filosofía? Francis Crick, codescubridor de la doble hélice del ADN, aseguraba con mala uva que el único filósofo de la historia que había tenido éxito era Albert Einstein
No tan muerta
Por Javier Sampedro
Yo, señor, soy un científico raro. Sé que meterse con los filósofos es una de las aficiones favoritas de los científicos. Francis Crick, codescubridor de la doble hélice del ADN, aseguraba con característica mala uva que el único filósofo de la historia que había tenido éxito era Albert Einstein. El genetista y premio Nobel Jaques Monod dedicó un libro entero, El azar y la necesidad, a reírse de los filósofos marxistas, y el cosmólogo Stephen Hawking ha declarado con gran aparato eléctrico que “la filosofía ha muerto”, lo que ha dejado de piedra a los filósofos y seguramente a los muertos. Pero fíjense en que todos esos dardos venenosos no son expresiones científicas, sino filosóficas, y que por tanto se autorrefutan como una paradoja de Epiménides (ya les dije que yo era un científico raro).
¿Qué quiere decir Hawking con eso de que la filosofía ha muerto? Quiere decir que las cuestiones fundamentales sobre la naturaleza del universo no pueden responderse sin los datos masivos que emergen de los aceleradores de partículas y los telescopios gigantes. Quiere decir que la pregunta “¿por qué estamos aquí?” queda fuera del alcance del pensamiento puro. Quiere decir que el progreso del conocimiento es esclavo de los datos, que su única servidumbre es la realidad, que cuando una teoría falla la culpa es del pensador, nunca de la naturaleza. Un físico teórico sabe mejor que nadie que, pese a que la ciencia es solo una, hay dos formas de hacerla: generalizando a partir de los datos y pidiendo datos a partir de las ecuaciones. Einstein trabajó de la segunda forma, pensando de arriba abajo. Pero ese motor filosófico también le condujo a sus grandes errores, como la negación de las aplastantes evidencias de la física cuántica con el argumento de que “Dios no juega a los dados”. Como le respondió Niels Böhr: “No digas a Dios lo que debe hacer”.
La ciencia no matará a la filosofía: solo a la mala filosofía.
Una cooperación fecunda
Por Adela Cortina
La filosofía es un saber que se ha ocupado secularmente de cuestiones radicales, cuyas respuestas se encuentran situadas más allá del ámbito de la experimentación científica. El sentido de la vida y de la muerte, la estructura de la realidad, por qué hablamos de igualdad entre los seres humanos cuando biológicamente somos diferentes, qué razones existen para defender derechos humanos, cómo es posible la libertad, en qué consiste una vida feliz, si es un deber moral respetar a otros aunque de ello no se siga ninguna ganancia individual o grupal, qué es lo justo y no sólo lo conveniente. Sus instrumentos son la reflexión y el diálogo bien argumentado, que abre el camino hacia ese “uso público de la razón” en la vida política, sin el que no hay ciudadanía plena ni auténtica democracia. El ejercicio de la crítica frente al fundamentalismo y al dogmatismo es su aliado.
En sus épocas de mayor esplendor la filosofía ha trabajado codo a codo con las ciencias más relevantes, y ha sido la fecundación mutua de filosofía y ciencias la que ha logrado un mejor saber. Porque la filosofía que ignora los avances científicos se pierde en especulaciones vacías; las ciencias que ignoran el marco filosófico pierden sentido y fundamento.
Hoy en día son especialmente las éticas aplicadas a la política, la economía, el desarrollo, la vida amenazada y tantos otros ámbitos las que han mostrado que el imperialismo de un solo saber, sea el que fuere, es estéril, que la cooperación sigue siendo la opción más fecunda. Habrá que mantener, pues, la enseñanza de la ética y de la filosofía en la ESO y en el bachillerato, no vaya a ser que, al final, científicos como Hawking o Dawkins acaben dándole la razón a la LOMCE.
Fuente: El País, Babelia.
http://cultura.elpais.com/cultura/2014/12/30/babelia/1419956198_209450.html
Por Javier Sampedro
Yo, señor, soy un científico raro. Sé que meterse con los filósofos es una de las aficiones favoritas de los científicos. Francis Crick, codescubridor de la doble hélice del ADN, aseguraba con característica mala uva que el único filósofo de la historia que había tenido éxito era Albert Einstein. El genetista y premio Nobel Jaques Monod dedicó un libro entero, El azar y la necesidad, a reírse de los filósofos marxistas, y el cosmólogo Stephen Hawking ha declarado con gran aparato eléctrico que “la filosofía ha muerto”, lo que ha dejado de piedra a los filósofos y seguramente a los muertos. Pero fíjense en que todos esos dardos venenosos no son expresiones científicas, sino filosóficas, y que por tanto se autorrefutan como una paradoja de Epiménides (ya les dije que yo era un científico raro).
¿Qué quiere decir Hawking con eso de que la filosofía ha muerto? Quiere decir que las cuestiones fundamentales sobre la naturaleza del universo no pueden responderse sin los datos masivos que emergen de los aceleradores de partículas y los telescopios gigantes. Quiere decir que la pregunta “¿por qué estamos aquí?” queda fuera del alcance del pensamiento puro. Quiere decir que el progreso del conocimiento es esclavo de los datos, que su única servidumbre es la realidad, que cuando una teoría falla la culpa es del pensador, nunca de la naturaleza. Un físico teórico sabe mejor que nadie que, pese a que la ciencia es solo una, hay dos formas de hacerla: generalizando a partir de los datos y pidiendo datos a partir de las ecuaciones. Einstein trabajó de la segunda forma, pensando de arriba abajo. Pero ese motor filosófico también le condujo a sus grandes errores, como la negación de las aplastantes evidencias de la física cuántica con el argumento de que “Dios no juega a los dados”. Como le respondió Niels Böhr: “No digas a Dios lo que debe hacer”.
La ciencia no matará a la filosofía: solo a la mala filosofía.
Una cooperación fecunda
Por Adela Cortina
La filosofía es un saber que se ha ocupado secularmente de cuestiones radicales, cuyas respuestas se encuentran situadas más allá del ámbito de la experimentación científica. El sentido de la vida y de la muerte, la estructura de la realidad, por qué hablamos de igualdad entre los seres humanos cuando biológicamente somos diferentes, qué razones existen para defender derechos humanos, cómo es posible la libertad, en qué consiste una vida feliz, si es un deber moral respetar a otros aunque de ello no se siga ninguna ganancia individual o grupal, qué es lo justo y no sólo lo conveniente. Sus instrumentos son la reflexión y el diálogo bien argumentado, que abre el camino hacia ese “uso público de la razón” en la vida política, sin el que no hay ciudadanía plena ni auténtica democracia. El ejercicio de la crítica frente al fundamentalismo y al dogmatismo es su aliado.
En sus épocas de mayor esplendor la filosofía ha trabajado codo a codo con las ciencias más relevantes, y ha sido la fecundación mutua de filosofía y ciencias la que ha logrado un mejor saber. Porque la filosofía que ignora los avances científicos se pierde en especulaciones vacías; las ciencias que ignoran el marco filosófico pierden sentido y fundamento.
Hoy en día son especialmente las éticas aplicadas a la política, la economía, el desarrollo, la vida amenazada y tantos otros ámbitos las que han mostrado que el imperialismo de un solo saber, sea el que fuere, es estéril, que la cooperación sigue siendo la opción más fecunda. Habrá que mantener, pues, la enseñanza de la ética y de la filosofía en la ESO y en el bachillerato, no vaya a ser que, al final, científicos como Hawking o Dawkins acaben dándole la razón a la LOMCE.
Fuente: El País, Babelia.
http://cultura.elpais.com/cultura/2014/12/30/babelia/1419956198_209450.html
Etiquetas:
Adela Cortina,
Albert Einstein,
ciencia,
científicos,
Epiménides,
éticas,
filosofía,
filósofos,
Francis Crick,
Jaques Monod,
Javier Sampedro,
Niels Böhr,
Stephen Hawking
jueves, 10 de octubre de 2013
Galileo, Newton, Eisntein, Stephen Hawking,
¿Quién se atreverá a poner límites al
ingenio de los hombres?
GALILEO GALILEI (1564-1642)
Las aportaciones esenciales de Isaac Newton (1642-1727) se produjeron en el terreno de la física. Sus primeras investigaciones giraron en torno a la óptica: explicando la composición de la luz blanca como mezcla de los colores del arco iris, formuló una teoría sobre la naturaleza corpuscular de la luz y diseñó en 1668 el primer telescopio de reflector, del tipo de los que se usan actualmente en la mayoría de los observatorios astronómicos; más tarde recogió su visión de esta materia en la obra Óptica (1703). También trabajó en otras áreas, como la termodinámica y la acústica.
La mecánica newtoniana
Pero su lugar en la historia de la ciencia se lo debe sobre todo a su refundación de la mecánica. En su obra más importante, Principios matemáticos de la filosofía natural (1687), formuló rigurosamente las tres leyes fundamentales del movimiento, hoy llamadas Leyes de Newton:
1. La primera ley o ley de la inercia, según la cual todo cuerpo permanece en reposo o en movimiento rectilíneo uniforme si no actúa sobre él ninguna fuerza;
2. La segunda o principio fundamental de la dinámica, según el cual la aceleración que experimenta un cuerpo es igual a la fuerza ejercida sobre él dividida por su masa;
3. Y la tercera o ley de acción y reacción, que explica que por cada fuerza o acción ejercida sobre un cuerpo existe una reacción igual de sentido contrario.
De estas tres leyes dedujo
4. Una cuarta, que es la más conocida: la ley de la gravedad, que según la leyenda le fue sugerida por la observación de la caída de una manzana del árbol. Descubrió que la fuerza de atracción entre la Tierra y la Luna era directamente proporcional al producto de sus masas e inversamente proporcional al cuadrado de la distancia que las separa, calculándose dicha fuerza mediante el producto de ese cociente por una constante G; al extender ese principio general a todos los cuerpos del Universo lo convirtió en la ley de gravitación universal.
"Fui sólo un niño que, jugando en la playa, halló una piedra más fina o una concha más linda de lo normal mientras que el gran océano de la verdad se extendía inexplorado ante mí"
Comentario atribuido a Newton, dicho poco antes de su muerte (1727)
"Sus logros fueron tan trascendentales que el término 'genio científico' fue creado para describirlo a él"
Robert Iliffe, director de The Newton Project
GALILEO GALILEI (1564-1642)
Las aportaciones esenciales de Isaac Newton (1642-1727) se produjeron en el terreno de la física. Sus primeras investigaciones giraron en torno a la óptica: explicando la composición de la luz blanca como mezcla de los colores del arco iris, formuló una teoría sobre la naturaleza corpuscular de la luz y diseñó en 1668 el primer telescopio de reflector, del tipo de los que se usan actualmente en la mayoría de los observatorios astronómicos; más tarde recogió su visión de esta materia en la obra Óptica (1703). También trabajó en otras áreas, como la termodinámica y la acústica.
La mecánica newtoniana
Pero su lugar en la historia de la ciencia se lo debe sobre todo a su refundación de la mecánica. En su obra más importante, Principios matemáticos de la filosofía natural (1687), formuló rigurosamente las tres leyes fundamentales del movimiento, hoy llamadas Leyes de Newton:
1. La primera ley o ley de la inercia, según la cual todo cuerpo permanece en reposo o en movimiento rectilíneo uniforme si no actúa sobre él ninguna fuerza;
2. La segunda o principio fundamental de la dinámica, según el cual la aceleración que experimenta un cuerpo es igual a la fuerza ejercida sobre él dividida por su masa;
3. Y la tercera o ley de acción y reacción, que explica que por cada fuerza o acción ejercida sobre un cuerpo existe una reacción igual de sentido contrario.
De estas tres leyes dedujo
4. Una cuarta, que es la más conocida: la ley de la gravedad, que según la leyenda le fue sugerida por la observación de la caída de una manzana del árbol. Descubrió que la fuerza de atracción entre la Tierra y la Luna era directamente proporcional al producto de sus masas e inversamente proporcional al cuadrado de la distancia que las separa, calculándose dicha fuerza mediante el producto de ese cociente por una constante G; al extender ese principio general a todos los cuerpos del Universo lo convirtió en la ley de gravitación universal.
"Fui sólo un niño que, jugando en la playa, halló una piedra más fina o una concha más linda de lo normal mientras que el gran océano de la verdad se extendía inexplorado ante mí"
Comentario atribuido a Newton, dicho poco antes de su muerte (1727)
"Sus logros fueron tan trascendentales que el término 'genio científico' fue creado para describirlo a él"
Robert Iliffe, director de The Newton Project
lunes, 8 de abril de 2013
Suscribirse a:
Entradas (Atom)