23 sept. 2014

LA DIFERENCIA ENTRE PRECISIÓN Y EXACTITUD

 por Sergio Montañez Naz. 
En un artículo anterior hemos explicado que un método de medida es más preciso cuanto menores son los errores aleatorios que posee, y que el grado de precisión de un método se puede cuantificar midiendo varias veces y estudiando la dispersión de los datos obtenidos al repetir la misma medición.
Dado que los errores aleatorios producen desviaciones, a veces por arriba, a veces por debajo, cuando calculamos la media aritmética de alguna forma estamos "compensando" los errores cometidos, con lo que esperamos obtener un valor cercano al verdadero. No obstante, hemos explicado que en el caso particular de que esos datos obtenidos estén más dispersos que la sensibilidad del aparato utilizado, entonces no podemos tomar como incertidumbre experimental la sensibilidad del aparato, ésta tiene que ser más grande.
En este artículo vamos a presentar otro tipo de errores que pueden producirse al medir una magnitud. Se trata de los errores sistemáticos.

"On the origin of dark matter" Conferencia. Samuel Ting

   24 septiembre 2014
   15:00
   Plaza Mayor UAM. Sala polivalente
 Organiza  UAM
 Tipo de evento  Coloquios Paco Yndurain
 Título  On the origin of dark matter
 Ponente  Samuel Ting
 Institución  MIT
 ¿Necesario confirmación?  No
 Más información  Aquí


21 sept. 2014

LA DIFERENCIA ENTRE SENSIBILIDAD Y PRECISIÓN

"Sensibilidad" y "precisión" son dos conceptos muy distintos que toda persona con una formación científica básica debería tener claros, pero que, sin embargo, se encuentran mezclados y confundidos en el lenguaje cotidiano y en muchos textos formales. Esperamos que este artículo sirva para aclarar esta confusión.

19 sept. 2014

"50 años de colaboración espacial Europea: el programa científico de la Agencia Espacial Europea" Conferencia, Álvaro Giménez‐Cañete.

   Jueves 25 de Septiembre de 2014
   20:00
   Sala de Proyección del Planetario de Madrid.
 Organiza  Planetario de Madrid.
 Tipo de evento  Conferencia de divulgación
 Título  50 años de colaboración espacial Europea: el programa científico de la Agencia Espacial Europea
 Ponente  Álvaro Giménez‐Cañete
 Institución  Director de Ciencia y Exploración Robótica de la Agencia Espacial Europea
 ¿Necesario confirmación? 
 Más información  Aquí

15 sept. 2014

LA METODOLOGÍA FALSACIONISTA EN EL TRABAJO CIENTÍFICO

El contenido de este artículo ha sido desarrollado, ampliado y enriquecido enormemente, de tal manera que ha sido conveniente dividirlo en 3 nuevos artículos que sustituyen a éste:
Artículo antiguo:
En un artículo anterior hemos señalado la necesidad, no sólo de mejorar los conocimientos científicos de los ciudadanos en una sociedad democrática, sino, sobre todo, de hacerlo yendo más allá de la ingenua concepción empirista-positivista de la ciencia. Al analizar, de acuerdo con A.F. Chalmers [(1999) What Is This Thing Called Science?, 3rd edn, Milton Keynes: Open University Press.], esta doctrina, hemos dado argumentos que nos han llevado a rechazar completamente el enunciado
  • B) Los ``hechos'' en los que se basa la Ciencia son anteriores a la teoría e independientes de ella.
y a matizar enormemente los enunciados
  • (A) Los ``hechos'' en los que se basa la Ciencia se dan directamente a observadores cuidadosos y desprejuiciados por medio de los sentidos.
  • (C) Estos ``hechos'' constituyen un fundamento firme y confiable para el conocimiento científico.
En este artículo vamos a analizar el cuarto postulado en la que está basado el positivismo:
  • D) Es posible ir de forma correcta y legítima de los ``hechos'' a las leyes y teorías mediante el uso de la razón.
Lo primero que hay que darse cuenta es que es imposible que el conocimiento científico pueda derivarse legítimamente de los hechos si "derivar'' se interpreta como "deducir lógicamente'', a partir de estos hechos, una serie de conclusiones, ya que el conocimiento científico contiene enunciados universales y los hechos experimentales son enunciados singulares.
Así, por ejemplo, la lógica, la ciencia formal que estudia los principios de la demostración e inferencia válida, fundada por Aristóteles en el siglo IV a.C., nos dice que es correcto derivar, a partir de las premisas "todos los hombres son mortales" y "todo lo mortal morirá algún día" la conclusión "todo el que lea este artículo va a morir en algún momento". Se trata de un arte que nos proporciona un conocimiento seguro, siempre y cuando sean ciertas las premisas. En cambio, ya Francis Bacon en el siglo XVII [(1620) Novum Organum] se dio cuenta de que la lógica aristotélica, por sí sola, no puede ser la base de la investigación científica, porque su silogística gira en torno a un grupo de conocimientos, con el fin de sólo reafirmarlos. El método aristotélico, que era el que imperaba hasta entonces, era ineficaz, inútil desde un punto de vista práctico, debido a que tanto éste como su filosofía tenían solo una utilidad discursiva, dispuesta únicamente para debates y discusiones, pero no para que la ciencia progrese, se amplíe nuestro conocimiento y éste sirva para mejorar la vida humana.
En cambio, el tipo de actividades que hacen a la ciencia progresar se parecen más a la del siguiente ejemplo. Supongamos que hemos soltado muchas veces un objeto cerca de la superficie terrestre, en condiciones en las que el rozamiento con el aire es despreciable, y hemos observado que éste ha caído con una aceleración constante que es independiente de la masa del objeto. A partir de todos estos resultados particulares generalizamos a un enunciado universal: todos los cuerpos, si es despreciable el rozamiento, caen siempre con aceleración constante, independientemente de su masa. A este tipo de razonamientos, que son distintos de los razonamientos lógicos, se les llama inductivos. El hecho de que la ciencia esté hecha de enunciados universales parece que nos obliga a hacer este tipo de razonamientos.
No obstante, ya desde los tiempos de Francis Bacon muchos pensadores se dieron cuenta de que el método inductivo es lógicamente inconsistente, dando lugar al denominado "problema de la inducción", cuya formulación más célebre se debe a David Hume en el siglo XVIII [(1910) [1748]. An Enquiry concerning Human Understanding. P.F. Collier & Son.].
En efecto, para poder utilizar la inducción de forma legítima:
  • El número de enunciados observacionales que constituyen la base de la generalización debe ser grande. Si no, podríamos inferir erróneamente que todos habitantes de un país miden menos de 2 metros, en el caso de que esto haya sido así en la muestra concreta que hemos tomado. Pero esto lleva consigo una serie de problemas: ¿qué significa ``grande''? ¿es necesario tirar muchas veces una bomba atómica para saber con seguridad que tiene un gran poder destructivo? De hecho, en el ámbito científico no se suele valorar como importante y relevante el que se haya repetido un experimento ya realizado.
  • Las observaciones/experimentos se deben repetir en una amplia variedad de condiciones. Claramente, es el conocimiento previo el que nos guía acerca de cómo distinguir entre los factores que podrían influir en la experiencia y los que no, para hacer variaciones de los primeros y no de los segundos. El razonamiento inductivo no es, por, tanto, tan objetivo como a primera vista podrá parecer.
  • Ningún resultado experimental aceptado debe entrar en contradicción con la ley universal derivada. Veremos en un artículo posterior dedicado a la historia de la ciencia que esta condición también tiene problemas.
Por tanto, además de no existir una regla universal para ello, no es nada trivial conocer en cada caso con rigor bajo qué condiciones una generalización constituye una buena inferencia inductiva. Esto invalida la proposición D.
Otros problemas que tiene el inductivismo están relacionados con el hecho de que gran parte del conocimiento científico contemporáneo está basado en lo inobservable, y este tipo de conocimiento no puede derivarse directamente a partir de los hechos experimentales por inducción. Por ejemplo, la comunidad científica acabó aceptando universalmente la existencia de los átomos mucho antes de que pudieran ser observados, a grandes rasgos porque los modelos que explicaban el comportamiento microscópico de la materia basados en éstos daban lugar a buenas predicciones acerca del comportamiento macroscópico de ésta (por ejemplo, era la mejor forma de explicar y predecir el comportamiento de los gases y de las reacciones químicas). Recientemente hemos aceptado la existencia del bosón de Higgs, aun cuando esta partícula no ha sido detectada directamente por los detectores ya que decae muy rápido en otras partículas. El motivo es que la existencia de ese bosón es, con un grado de confianza muy alto, la única forma de entender lo que se ha detectado.
Estos problemas del inductivismo nos han llevado a una concepción un poco más sofisticada del quehacer científico denominada falsacionismo. Esta forma de entender la ciencia, cuyo defensor más vigoroso ha sido Karl Popper, [(1959) The Logic of Scientific Discovery, London: Routledge] se basa, en su versión más sofisticada, en las siguientes premisas:
  • La ciencia no implica inducción. Las leyes y teorías científicas han de ser falsables, es decir, ha de existir algún hecho experimental posible que sea incompatible con ellas. En otras palabras, para que un enunciado sea científico debe existir algún hipotético resultado experimental que lo refute. Así, por ejemplo, la ley de conservación de la cantidad de movimiento es un enunciado científico, porque en un experimento de colisiones podría obtenerse como resultado que la cantidad de movimiento total final es distinta de la inicial. Si pasara esto alguna vez, tendríamos claro que tenemos que descartar la ley de conservación de la cantidad de movimiento (¿a que sí Pauli?). Si, tras numerosos y elaborados intentos, no hemos conseguido refutar esa ley, entonces tenemos que aceptarlo, pero siempre de forma provisional. De esta forma, las teorías no se derivan, sino que se crean por el intelecto humano para después ser sometidas a prueba rigurosa e implacablemente por la observación y la experimentación. Éstas (la observación y la experimentación) son guiadas por la teoría y la presuponen.
  • Las teorías que no superen las pruebas experimentales han de ser eliminadas y reemplazadas por otras que a su vez se pondrán a prueba. Pero no vale cualquier hipótesis o teoría, sino que éstas deben ser más falsables que aquella en cuyo lugar se ofrecen. Una teoría recién propuesta ha de ser considerada como digna de atención si es más falsable que su rival y, en especial, si predice un nuevo tipo de fenómenos que su rival no menciona. Esto excluye modificaciones "ad hoc'' como, por ejemplo, la que propusieron los aristotélicos cuando, ante la afirmación de Galileo de que había visto cráteres en la Luna, postularon que la Luna seguía siendo una esfera perfecta porque estaba rodeada de un material transparente perfectamente esférico. Esta afirmación no era falsable porque en aquella época no era posible viajar a la Luna para comprobarla.
De esta forma, según Popper, la ciencia progresa en el sentido de que sólo sobreviven las teorías más aptas. Aunque no se puede decir que una teoría superviviente es rigurosamente verdadera, sí que se puede decir que es la mejor disponible. El hecho de exigir que las teorías sean cada vez más falsables evita la posibilidad de que no se produzca progreso por hacer simplemente modificaciones "ad hoc''. En cambio, proponer, como hizo Einstein, que los campos gravitatorios curvan las trayectorias de los rayos de luz, es una conjetura audaz muy falsable que nadie esperaba. La confirmación por parte de Eddington de que esto ocurría supuso un gran avance para la ciencia. En resumen: con la falsación de una conjetura audaz o la confirmación de una conjetura prudente se aprende muy poco. En cambio, confirmar las conjeturas audaces y falsar las conjeturas prudentes es lo que da lugar a adelantos en ciencia. De acuerdo con esta concepción falsacionista, podemos describir, a grandes rasgos, una serie de pasos necesarios que tiene que tener un buen método científico:
  1. Planteamiento de una o varias preguntas. Es evidente que para hacerse una pregunta algo ha tenido que llamar nuestra atención, ya sea estudiando lo que se conoce actualmente sobre un tema o haciendo alguna observación. Esto implica que no es posible investigar sin ningún tipo de prejuicio: el conocimiento previo y las expectativas que se tengan condicionan las preguntas que nos hacemos. Hay que señalar también que este paso es más importante de lo que a primera vista podría parecer, ya que hay veces que el mayor mérito está en ser capaz de plantearse las preguntas adecuadas. Einstein era un fiera haciendo esto.
  2. Formulación de hipótesis que traten de dar respuesta a esas preguntas. Éstas tienen que ser falsables. Evidentemente, al hacer esto también estamos condicionados por lo que sabemos previamente sobre el tema. Es importante señalar que la puesta en práctica del método científico nos aporta conocimiento incluso aunque en este punto hallamos formulado una hipótesis falsa.
  3. Diseño de experimentos para poner a prueba las hipótesis. Sólo una vez que hemos formulado alguna hipótesis que responda a nuestra pregunta, y que aceptamos también un cuerpo de conocimientos adicionales (a los que llamaremos hipótesis auxiliares), que damos por seguros, tenemos una guía de qué tipos de dispositivo experimental debemos montar (de los infinitos posibles), cómo vamos a manipularlo (de las infinitas posibilidades que tenemos para hacer esto), qué magnitudes físicas vamos a medir (de las infinitas posibles) y cómo vamos a tratar los datos experimentales para sacar conclusiones. Sin una teoría previa, por rudimentaria que sea (formada por la hipótesis que responde a nuestra pregunta y por las hipótesis auxiliares) no es posible hacer ningún experimento.
  4. Ejecución del experimento. Esto implica la toma de datos y la resolución de los posibles problemas auxiliares que vayan surgiendo. La mejor forma de organizar los datos experimentales es mediante tablas.
  5. Análisis de los resultados del experimento. La mejor forma de analizar los datos experimentales es representándolos mediante gráficas.
  6. Obtención de conclusiones a partir de los resultados del experimento ¿Podemos concluir que la hipótesis que hemos sometido a prueba ha sido falsada?
  7. Presentación del trabajo a la comunidad científica, tanto con su publicación en revistas científicas especializadas como con su exposición en congresos científicos. De la discusión sobre los resultados del mismo con el resto de la comunidad surgen nuevos interrogantes que nos llevan de nuevo al primer punto.

Sin embargo, es necesario señalar aquí que el falsacionismo no está tampoco exento de problemas. El principal problema nos viene del estudio de la historia de la ciencia y lo discutiremos en un artículo posterior, limitándonos aquí sólo a mencionar que los trabajos de T.S. Kuhn [(1962) The Structure of Scientific Revolutions, 3rd edn, Chicago: University of Chicago Press] y P. Feyerabend [Against Method. London: Verso] han demostrado que no sólo los científicos en el pasado han conseguido progresar dando la espalda a la metodología falsacionista, sino que el progreso científico mismo sería imposible si los científicos abandonasen una teoría ante las primeras pruebas experimentales en contra. Este "dogmatismo" también juega un papel importante en la ciencia, ya que permite que algunos científicos sigan trabajando y desarrollando hipótesis y teorías que al principio estaban en desventaja respecto a otras pero que, tras desarrollarse, se acaban imponiendo como más adecuadas para comprender la realidad.
El segundo problema es a nivel exclusivamente teórico, y nos vamos a dedicar a él en lo que queda de artículo.
Una hipótesis o incluso una teoría científica completa consta de un conjunto de enunciados universales. Pero ya hemos indicado que para someter a prueba experimental una teoría es necesario aumentar siempre ésta mediante supuestos auxiliares tales como leyes o teorías que rigen el comportamiento de los instrumentos utilizados. Además es necesario añadir condiciones iniciales tales como una descripción del marco experimental y la formulación de hipótesis auxiliares acerca de cómo influyen las condiciones en las que se realiza el experimento en el resultado de éste. Si el experimento da lugar a un resultado negativo, todo lo que la lógica de la situación nos dice es que una de las premisas debe ser falsa. Pero ¿cuál? ¿Cómo podemos falsar de manera concluyente una teoría?
Hoy en día sabemos que, en rigor, no se puede. Cualquier experimento cuyo resultado parezca estar falsando la hipótesis principal que se pretendía testar podría en realidad estar falsando alguna de las hipótesis auxiliares. Todo lo que nos dice el resultado del experimento es que alguna de las hipótesis no se cumple, pero no sabemos cuál. De hecho, puede ocurrir, y ha ocurrido, que la hipótesis que no es correcta sea una hipótesis auxiliar que ni siquiera el científico había hecho explícita, de tal forma que ni siquiera se le puede pasar por la cabeza al científico que esa hipótesis podría estar mal. Por ejemplo, experimentos como el de Michelson-Morley o los que permitían obtener los espectros atómicos parecían indicarnos que la teoría electromagnética era falsa. Sin embargo, resultó que en ambos lo que era falsa era una hipótesis auxiliar que los científicos aceptaban como una verdad incuestionable. Esta hipótesis incorrecta era, en el primer caso, que el tiempo es el mismo en todos los sistemas de referencia, y en el segundo que los electrones que giran en torno a los núcleos de los átomos lo hacen siguiendo trayectorias bien definidas. Parecen tan evidentes que a nadie se le ocurrió escribir "este experimento concluye esto siempre y cuando las partículas en su movimiento tengan asociada una trayectoria".
Por tanto, lo que Bacon llamaba "experimentos cruciales", aquellos que permiten determinar sin ambigüedad cuál de dos teorías competidoras es más cercana a la realidad, no son, en rigor, posibles, ya que puede ocurrir que un conjunto distinto de hipótesis auxiliares puedan hacer que la teoría que se pretende testar cambie su predicción sobre qué ocurrirá en el experimento. Y los científicos nunca están seguros al 100% de que hayan tenido ya en cuenta todas las posibilidades.
Es llamativo que, bastantes años antes de que Popper desarollara el falsacionismo como el método de la ciencia, el físico francés Pierre Duhem [(1906]) The Aim and Structure of Physical Theory] ya se había dado cuenta de que ninguna hipótesis científica se puede comprobar experimentalmente en completo aislamiento, sino sólo junto a otras hipótesis teóricas más otras hipótesis auxiliares. Posteriormente, el filósofo norteamericano W. V. O. Quine, un un famoso artículo [(1951) "Two dogmas of empirism", Philosophical Review 60: 20–43], llegó a una conclusión similar a la de Duhem al criticar dos dogmas del empirismo lógico o positivismo:
  • La distinción entre verdades analíticas (verdades lógico-matemáticas, indepentes de los hechos) y verdades sintéticas (basadas en los hechos)
  • El reduccionismo, la creencia en que toda afirmación con sentido es equivalente a alguna construcción lógica sobre términos que son comprobables experimentalmente.
No son, por tanto, los enunciados los que son falsables, sino la totalidad del conocimiento científico como un todo. Ante una evidencia experimental en contra habrá varias posibilidades de modificar toda la red de teorías e hipótesis para adaptarla a ésta. Un enunciado que es falso en una de estas posibilidades puede ser verdadero en otra. Estas ideas constituyen la denominada tesis de Duhem-Quine. Por supuesto, hay enunciados, los que antes llamábamos "analíticos", que son menos susceptibles que otros, los que antes llamábamos "sintéticos", de ser modificados ante un resultado experimental en contra, pero, como señala Quine, la diferencia entre  los enunciados "analíticos" de las matemáticas y los "sintéticos" de la física no es de naturaleza sino de grado: los resultados experimentales nos dan las condiciones de frontera que tiene que satisfacer la red que constituye todo el conocimiento científico, y los juicios "sintéticos" están más cerca de esa frontera, con lo que, cuando hay un cambio en la frontera, al ajustar la red para adaptarse a ese cambio es más probable que los acabemos tocando.
Por tanto, ¿trabajan siempre los científicos siguiendo una metodología falsacionista? Si se encuentran un “hecho experimental” que parece estar en contradicción con la teoría en la que están trabajando, ¿abandonan inmediatamente esa teoría? Lakatos [The Methodology of Scientific Research Programmes. Philosophical Papers Volume 1. Cambridge University Press] utiliza el siguiente ejemplo imaginario para argumentar que siempre es posible salvar a la teoría de resultados experimentales negativos, de tal forma que la elección entre teorías no está determinada unívocamente por los resultados experimentales: 
La historia se refiere a un caso imaginario de conducta anómala de un planeta. Un físico de la era preeinsteiniana combina la mecánica de Newton y su ley de gravitación (N) con las condiciones iniciales aceptadas (I) y calcula mediante ellas la ruta de un pequeño planeta que acaba de descubrirse, p. Pero el planeta se desvía de la ruta prevista. ¿Considera nuestro físico que la desviación estaba prohibida por la teoría de Newton y que, por ello, una vez confirmada tal ruta, queda refutada la teoría N? No. Sugiere que debe existir un planeta hasta ahora desconocido, p', que perturba la ruta de p. Calcula la masa, órbita, etc., de ese planeta hipotético y pide a un astrónomo experimental que contraste su hipótesis. El planeta p' es tan pequeño que ni los mayores telescopios existentes podrían observarlo: el astrónomo experimental solicita una ayuda a la investigación para construir uno aún mayor. Tres años después el nuevo telescopio ya está disponible. Si se descubriera el planeta desconocido p', ello sería proclamado como una nueva victoria de la ciencia newtoniana. Pero no sucede así. ¿Abandona nuestro científico la teoría de Newton y sus ideas sobre el planeta perturbador? No. Sugiere que una nube de polvo cósmico nos oculta el planeta. Calcula la situación y propiedades de la nube y solicita una ayuda a la investigación para enviar un satélite con objeto de contrastar sus cálculos. Si los instrumentos del satélite (probablemente nuevos, fundamentados en una teoría poco contrastada) registraran la existencia de la nube conjeturada, el resultado sería pregonado como una gran victoria de la ciencia newtoniana. Pero no se descubre la nube. ¿Abandona nuestro científico la teoría de Newton junto con la idea del planeta perturbador y la de la nube que lo oculta? No. Sugiere que existe un campo magnético en esa región del universo que inutilizó los instrumentos del satélite. Se envía un nuevo satélite. Si se encontrara el campo magnético, los newtonianos celebrarían una victoria sensacional. Pero ello no sucede. ¿Se considera este hecho una refutación de la ciencia newtoniana? No. O bien se propone otra ingeniosa hipótesis auxiliar o bien... toda la historia queda enterrada en los polvorientos volúmenes de las revistas y nunca vuelve a ser mencionada.
Siempre es posible proteger a un enunciado o a una teoría entera de la falsación desviando la falsación hacia otra parte de la red de supuestos, y hacer esto o no es una decisión que los científicos continuamente toman en base a criterios que no son siempre ni estrictamente racionales ni objetivos, como, por ejemplo, la fe que puedan tener en que esa teoría acabe resolviendo los problemas en los que están trabajando, diversos prejuicios filosóficos, la aceptación que esa decisión tenga por el resto de la comunidad científica o su futuro laboral.
No obstante, independientemente de que no exista un método científico universal completamente racional, riguroso y objetivo que nos garantice un conocimiento seguro, el progreso espectacular de la ciencia en los últimos siglos nos indica que se trata de la empresa más racional y exitosa en la que se ha embarcado el ser humano. 

Sobre el autor: Sergio Montañez Naz es doctor en física y profesor de secundaria de la enseñanza pública en la Comunidad de Madrid.

14 sept. 2014

"El modelo estándar y sus retos futuros" Conferencia. Rolf-Dieter Heuer.

   17/11/2014
   19:30
Palacio del Marqués de Salamanca. Paseo de Recoletos 10. 28001. Madrid
 Organiza  Fundación BBVA
 Tipo de evento  Conferencia de divulgación
 Título  El modelo estándar y sus retos futuros
 Ponente  Rolf-Dieter Heuer
 Institución  Director General, CERN
 ¿Necesario confirmación? 
 Más información  http://www.fbbva.es/TLFU/tlfu/esp/areas/cienbas/conferencias/fichaconfe/index.jsp?codigo=1183

7 sept. 2014

LA OBSERVACIÓN Y LA EXPERIMENTACIÓN EN CIENCIA

"Vivimos en una sociedad fuertemente dependiente de la ciencia y la tecnología, en la que casi nadie sabe nada sobre ciencia y tecnología. Este cóctel nos lleva inevitablemente al desastre" [1].


Desgraciadamente, 25 años después de que Carl Sagan escribiera estas palabras su advertencia sigue aun más vigente todavía. No sólo la mayoría de la población, incluso en países desarrollados supuestamente democráticos en los que todo adulto tiene derecho a voto, sigue sin tener los conocimientos más básicos sobre ciencia y tecnología, además, los problemas que preocupaban a Sagan en 1989 han empeorado. Junto con la amenaza nuclear, que sigue existiendo aunque ya no se hable de ella, y del calentamiento global, hemos visto que el crecimiento exponencial de la economía, que estamos obligados a mantener para que no se nos castigue con la dureza del paro, ha traído consigo una destrucción sin precedentes de los ecosistemas naturales, tanto por su explotación como por su incapacidad para asimilar la ingente cantidad de residuos que generamos.

Más aun, el auge y proliferación de pseudociencias como la homeopatía, de timadores de todo tipo y de negacionistas del calentamiento global, e incluso de la evolución, nos ponen de manifiesto que no sólo hay que trabajar duramente para que toda la población adquiera unos conocimientos científicos sólidos, sino que, además, es mucho más importante que todo ciudadano bien formado entienda en qué consiste el quehacer científico y por qué el conocimiento derivado del mismo es el más fiable de todos. Es importante hacer esto último muy bien. De lo contrario, estaremos alimentando al fanatismo y a las pseudociencias.

Por ello, es de vital importancia que en las clases de ciencias en colegios e institutos no se presenten los conocimientos científicos como "dogmas de fe". Así los alumnos no aprenden ciencia y, además, se consigue que los que tienen un mayor sentido crítico la rechacen. Invito al lector a que pida a las personas que tiene a su alrededor que le expliquen, por ejemplo, por qué el modelo heliocéntrico es más adecuado para describir la realidad que el geocéntrico. Simplicio ahora es heliocentrista, pero sigue siendo Simplicio.

Las actividades de clase tienen que mostrar explícitamente que los conocimientos en Física, Química, Biología, descansan sobre "hechos'', y que esto es lo que le confiere a las ciencias experimentales su legitimidad y objetividad frente a otras formas de conocimiento. Tiene que quedar claro, además, el éxito tan espectacular que ha tenido el desarrollo estas ciencias en los últimos siglos.

Pero hay que tener cuidado de hacerlo bien. Como indica Chalmers [2], para poder asegurar en rigor que el conocimiento científico es totalmente objetivo, legítimo e infalible, es necesario que se cumplan estas cuatro condiciones:
  • A) Los "hechos'' en los que se basa la ciencia se dan directamente a observadores cuidadosos y desprejuiciados por medio de los sentidos. 
  • B) Estos "hechos'' son anteriores a la teoría e independientes de ella. 
  • C) Estos "hechos'' constituyen un fundamento firme y confiable para el conocimiento científico. 
  • D) Es posible ir de forma correcta y legítima de los "hechos'' a las leyes y teorías mediante el uso de la razón. 
La confianza en estas cuatro proposiciones, junto con la creencia en que debe haber sólo un único y verdadero método científico aplicable a todas las ciencias constituye lo que se llama una visión empirista-positivista de la ciencia. Este pensamiento se ha presentado recurrentemente a lo largo de la historia en diversas formas desde la epistemología de Augusto Comte de principios del siglo XIX y es hoy en día todavía dominante en parte de la sociedad, incluso entre prestigiosos divulgadores de la ciencia y opositores a las pseudociencias.

En este artículo, mediante el estudio de la naturaleza de la observación y la experimentación, vamos, siguiendo el análisis de Chalmers, a ver que la visión positivista de las ciencias experimentales es excesivamente ingenua.

Por otro lado, en un artículo posterior estudiaremos las características y capacidades del razonamiento humano, lo que nos llevará a enfrentarnos con los problemas de la inducción y, posteriormente, a una visión más sofisticada sobre cómo los científicos pasan de los "hechos" articulares de los experimentos a las leyes y teorías generales.

Por último, en otro artículo daremos algunas nociones sobre el estudio de la historia de la ciencia, en el que ésta se muestra como un proceso de continua construcción y de revisiones revolucionarias, lo que nos llevará a las concepciones que han sido dominantes en filosofía de la ciencia desde los años 60 del siglo pasado. Al contrario que en las concepciones anteriores, en estas últimas juega un papel muy importante el estudio del contexto histórico y social en el que se desarrolla el trabajo científico.

5 sept. 2014

LOS AGUJEROS NEGROS Y LA FÍSICA DEL SIGLO XXI

 por Sergio Montañez. 
La gravitación es la única fuerza que gobierna todo el universo. Es la única interacción a la que está sometida toda la materia y energía, sin excepciones, desde los grandes astros hasta la más pequeña de las partículas, incluso la luz está sometida a la interacción gravitatoria.
Para ilustrar esta universalidad de la interacción gravitatoria vamos a resolver un sencillo problema de Física que suele aparecer de forma habitual en los exámenes de acceso a la universidad. La pregunta es ¿qué velocidad inicial necesitamos darle a un objeto para que escape de la atracción gravitatoria terrestre y pueda viajar libremente por el espacio?

1 sept. 2014

"El círculo virtuoso de la ciencia y la innovación" Conferencia. Isabel Béjar

18/09/2014
19:30
Palacio del Marqués de Salamanca. Paseo de Recoletos 10. 28001. Madrid
 Organiza  Fundación BBVA
 Tipo de evento  Conferencia de divulgación
 Título  El círculo virtuoso de la ciencia y la innovación
 Ponente  Isabel Béjar
 Institución  Coordinadora técnica de Hi-luminosity LHC, CERN
 ¿Necesario confirmación? 
 Más información  http://www.fbbva.es/TLFU/tlfu/esp/areas/cienbas/todas/index.jsp

"Retos tecnológicos del acelerador y de los detectores del LHC" Conferencia. José Miguel Jiménez.

   16/10/2014
   19:30
Palacio del Marqués de Salamanca. Paseo de Recoletos 10. 28001. Madrid
 Organiza  Fundación BBVA
 Tipo de evento  Conferencia de divulgación
 Título  Retos tecnológicos del acelerador y de los detectores del LHC
 Ponente  José Miguel Jiménez
 Institución  Líder del Departamento de Tecnología, CERN
 ¿Necesario confirmación? 
 Más información  http://www.fbbva.es/TLFU/tlfu/esp/areas/cienbas/conferencias/fichaconfe/index.jsp?codigo=1182