Lateral Think's
 
Picture

Hoy volvemos a recuperar un antiguo post de mi antiguo blog Io Ateum de un tema intemporal ¿Cual es el origen de la vida?, que por su interes recuperamos aquí.
¿Cómo y porque surgió la vida en la tierra?
Es una de las preguntas básicas, desde que los filósofos griegos esgrimieran por primera vez el “quienes somos, a donde vamos y de donde venimos”. De donde venimos, se convirtió entonces en la respuesta clave, para poder responder a las otras dos preguntas.

Ya Darwin nos dio una primera respuesta, al esbozar en “el origen de las especies”, su consabida teoría de la evolución. Nuestra especie, es el resultado de la evolución de otras especies inferiores. En nuestro caso, como seres humanos, tenemos ancestros comunes con los primates (genéticamente se ha demostrado, a lo demás, que con el que más parentesco tenemos es con el chimpancé, con el que compartimos el 98% del genoma). Los primates surgieron a partir de los pequeños mamíferos existentes durante el jurásico que, para poder defenderse de los depredadores, principalmente saurios pterópodos, se escondían en las ramas de los árboles. Estos mamíferos, por selección natural fueron mejorando sus capacidades trepadoras, y cambiaron su dieta a una casi exclusivamente herbívora, ya que es un alimento que les costaba poco encontrar.

Y así podríamos ir remontándonos hasta las primeras amebas, bacterias y protozoos que poblaron las aguas del planeta tierra, antes de que hubiera una atmósfera respirable, gracias a la aparición de los primeros vegetales.

ZONA DE GOLDILOCK

Pero quizá, una de las primeras preguntas que deberíamos responder es ¿Por qué hay vida en la tierra?

El planeta tierra, dentro del sistema solar, está situado en lo que se denomina zona de Goldilock. Dicha zona, es la franja en la cual se dan las condiciones para que un planeta pueda tener vida. A saber:

1 - Debe de estar lo suficientemente cerca del sol para que la temperatura sea adecuada para la vida, durante toda la orbita de movimiento del planeta.
2 - Por el mismo motivo del punto uno, debe de estar a una distancia lo suficientemente lejana.
3 - La Luna (o lunas) tiene exactamente la dimensión correcta para estabilizar la orbita del planeta.
4 - Zona Goldilocks de masas planetarias. El planeta ha de tener el tamaño adecuado. Si fuera demasiado pequeño, su gravedad no seria capaz de retener el oxigeno. Si fuera demasiado grande, retendría muchos de sus gases primordiales venenosos que imposibilitarían la vida.
5 - Zona Goldilocks de orbitas planetarias permisibles. En el caso del planeta tierra, sorprendentemente las orbitas de los otros planetas de nuestro sistema solar excepto Plutón tienen orbitas circulares, lo que significa que los impactos entre planetas serian bastante raros en nuestro Sistema y también un posible acercamiento a un gigante gaseoso que desviase la orbita de la Tierra seria muy improbable.
6 - Además la Tierra también existe dentro de la zona Goldilocks de la galaxia de la Vía Láctea, a unos dos tercios de distancia del centro. Si el sistema solar estuviera demasiado cerca del centro, donde se encuentra un agujero negro súper masivo, el campo de radiación seria tan intenso que la vida seria imposible. SI estuviese demasiado lejos no habría suficientes elementos químicos superiores para producir los compuestos necesarios para la vida.

Si la Tierra estuviese tan solo fuera de una de esas bandas no estaríamos aquí para contarlo. De echo, hasta ahora no se ha encontrado ningún planeta que se pueda demostrar que esté en una zona Goldilock, aunque la cantidad de planetas conocidos, con respecto a la cantidad estimada (evidentemente la estimación tiene un margen de error generoso) es ínfimo.

El princípio antrópico

Si en el Universo se deben verificar ciertas condiciones para nuestra existencia dichas condiciones se verifican ya que nosotros existimos.

Es decir, sea cual sea la posibilidad de que un planeta se encuentre en la zona de Goldilock, las condiciones se han dado, ya que nosotros estamos aquí. A esto se lo denomina el “principio antrópico”.

Los creacionistas han utilizado el principio antrópico para justificar que dadas unas condiciones tan improbables, ha tenido que haber un ser creador que haya puesto la tierra en dichas condiciones, para que la vida en ella fuera posible.

Pero Richard Dawkins, en su libro “El espejismo de Dios” responde magistralmente a esta cuestión:

Supongamos que el origen de la vida en un planeta tuvo lugar por un golpe de suerte sumamente improbable, tan improbable que únicamente sucede en un planeta por cada mil millones de planetas. La Fundación Nacional de Ciencia se reiría del químico que propusiera una investigación que sólo tuviera una probabilidad de éxito del uno por cien, por no hablar de uno entre mil millones. Y sin embargo, dado que hay al menos un trillón de planetas en el universo, incluso con unas probabilidades tan reducidas se llega a que hay vida en mil millones de planetas. Y uno de ellos (aquí es donde entra en juego el principio antrópico) tiene que ser la Tierra, puesto que aquí estamos.

En efecto, las probabilidades de que haya vida en la tierra son bajas, aunque como hemos visto, a nivel astronómico las posibilidades son bastante más altas de lo que podría parecer en un principio. A lo demás, solo tendría que haber ocurrido una vez. El resto sería perfectamente explicable a partir de la teoría de la evolución de Darwin.

Origen

Pero ¿Cómo fue en si mismo el origen de la vida en la tierra?

Como podremos encontrar el Wikipedia:

La opinión más extendida en el ámbito científico establece la teoría de que la vida evolucionó de la materia inerte en algún momento entre hace 4.400 millones de años, cuando se dieron las condiciones para que el vapor de agua pudiera condensarse por primera vez y 2.700 millones de años, cuando la proporción entre los isótopos estables de carbono (12C y 13C), de hierro (56Fe, 57Fe y 58Fe) y de azufre (32S, 33S, 34S y 36S) inducen a pensar en un origen biogénico de los minerales y sedimentos que se produjeron en esa época y los biomarcadores moleculares indican que ya existía la fotosíntesis. Además entrarían aquí ideas e hipótesis sobre un posible origen extraplanetario o extraterrestre de la vida (panspermia), que habría sucedido durante los últimos 13.700 millones de años de evolución del Universo conocido tras el Big Bang.

Morse y MacKenzie han sugerido que los océanos podrían haber aparecido en el eón Hadeico tan temprano como 200 millones de años después de la formación de la tierra, en un ambiente caliente (100ºC) y reductor y con un pH inicial de 5.8 que subió rápidamente hacia la neutralidad. Esta idea ha sido apoyada por Wilde quien elevó la datación de los cristales de Zircón encontrados en cuarcitas metamorfizadas del Terrane de gneis del Monte Narryer, en Australia occidental, del que previamente se pensaba que era de 4.1–4.2 mil millones de años a 4402 millones de años. Otros estudios realizados más recientemente en cinturón de basalto de Nuvvuagittuq, al norte de Quebec, empeando Neodimio-142 confirman, estudiando rocas del tipo faux-anfibolita, la existencia muy temprana de una corteza, con una datación de 4,36 Ga. Esto significa que los océanos y la corteza continental existieron dentro de los 150 primeros millones de años tras la formación de la tierra. A pesar de esto, el ambiente hadeico era enormemente hostil para la vida. Se habrían dado frecuentes colisiones con grandes objetos cósmicos, incluso de más de 500 kilómetros de diámetro, suficientes para vaporizar el océano durante meses tras el impacto, lo que formaría nubes de vapor de agua mezclado con polvo de rocas elevándose a elevadas altitudes que cubrían todo el planeta. Tras unos cuantos meses la altitud de esas nubes comenzaría a disminuir, pero la base de la nube continuaría aún estando elevada probablemente durante los próximos mil años, tras lo cual comenzaría a llover a una altitud más baja. Durante 2.000 años las lluvias consumirían lentamente las nubes, devolviendo los océanos a su profundidad original sólo 3.000 años tras el impacto. El posible bombardeo intenso tardío provocado probablemente por los movimientos posicionales de los planetas gaseosos gigantes, que acribillaron la luna y otros planetas interiores (Mercurio, Marte y posiblemente la Tierra y Venus) hace entre 3.800 y 4.000 millones de años probablemente habrían esterilizado el planeta si la vida ya hubiera aparecido en ese periodo.
Examinando el intervalo de tiempo entre episodios de daños ambientales devastadores por impacto que exceda la escala temporal para que se establezcan protoorganismos autorreplicantes, vemos que el intervalo en el que la vida pudo haberse desarrollado por primera vez sirve para diferentes ambientes primitivos. El estudio llevado a cabo por Maher y Stephenson muestra que si los sistemas hidrotermales marinos profundos propician un lugar aceptable para el origen de la vida, la abiogénesis pudo haber sucedido en fechas tan tempranas como entre hace 4.000 y 4.200 millones de años, mientras que si hubiera sucedido en la superficie de la tierra la abiogénesis solo podría haber ocurrido hace entre 3.700 y 4.000 millones de años.
Otros trabajos de investigación sugieren un comienzo de la vida más frío. Los trabajos de Stanley Miller mostraron que los ingredientes de la vida adenina y guanina requieren condiciones de congelación para su síntesis, mientras que la citosina y el uracilo precisan temperaturas de ebullición. Basándose en estas investigaciones sugirió que el origen de la vida implicaría condiciones de congelación y meteoritos impactando.


Hipótesis del mundo ARN

La hipótesis del mundo ARN, propone que el ARN fue la primera forma de vida en la Tierra, desarrollando posteriormente una membrana celular a su alrededor y convirtiéndose así en la primera célula procariota.

El ARN es una molécula muy parecida al ADN y guarda dos diferencias químicas con éste: la estructura completa del ARN y del ADN son inmensamente similares. Una cadena de ADN y otra de ARN pueden unirse para formar una estructura de doble hélice. Esto hace posible el almacenamiento de información en el ARN de una forma muy parecida a la que se efectúa en el ADN.

La hipótesis del mundo de ARN se basa en la capacidad del ARN de almacenar, transmitir y duplicar la información genética, de la misma forma que lo hace el ADN. El ARN puede actuar también como una ribozima (una enzima hecha de ácido ribonucleico). Debido a que puede reproducirse a sí misma, desarrollando las tareas del ADN y de las proteínas (enzimas), se piensa que el ARN fue capaz de tener su propia vida independiente. Así, mientras que no se encontraron nucleótidos en el Experimento de Miller y Urey, sí se encontraron en las simulaciones de otros investigadores, sobre todo en las de Juan Oró. Experimentos con los ribozimas básicos, como el ARN viral Q-beta, han demostrado que las estructuras de ARN autorreplicantes sencillas pueden resistir incluso a fuertes presiones selectivas (como los terminadores de cadena de quiralidad opuesta).
Walter Gilbert fue el primero en usar la expresión "mundo de ARN" en 1986. No obstante, la idea de vida ARN independiente es más antigua, y se puede encontrar en el libro de Carl Woese The Genetic Code. Cinco años antes, el biólogo molecular Alexander Rich, del Massachusetts Institute of Technology, ya había propuesto gran parte de la misma idea en un artículo escrito para un volumen publicado en honor del premio Nobel de Fisiología Albert Szent-Györgyi.


Conclusiones

Lo realmente cierto es que no tenemos todavía excesivamente claro como se produjo la vida en la tierra, aunque si tenemos indicios y pistas de lo que pudo ocurrir. Quizá en un futuro no tan lejano tengamos una teoría que lo explique perfectamente. Mientras tanto, nos toca elucubrar.
 
Entre padres e hijos, o entre hermanos. Este tipo de relaciones amoroso/eróticas siempre han estado en el primer puesto de las depravaciones peor visas. En todos los tiempos y en todas las sociedades. Sólo se ha admitido entre reyes y alta aristocracia, asumiendo que como dioses, pueden hacer lo que quieran.
A esta visión tenemos que añadir los problemas propios de la endogamia. Lo que antíguamente se llamaba juntar la propia sangre. 
Desde luego no parece la mejor de las opciones. Pero como todo, depende de las circunstancias.
¿Que es?
   Por atracción sexual genética (GSA) se entiende la atracción sexual entre parientes cercanos, tales como un hermano y una hermana. La GSA, puede ocurrir como consecuencia de la adopción, cuando los niños adoptados descubren su ascendencia verdadera y buscan a parientes. 
   Se trata, por definición, de relaciones consentidas y deseadas, por parte de dos adultos, que están en pleno uso de sus facultades mentales. Pero ¿por que se da?¿cual es la explicación a este comportamiento?   En el siguiente documental nos dan las claves de que ocurre, y porqué ocurre:
El debate está servido. ¿Deben de legalizarse y permitirse este tipo de relaciones?¿Debe permitirse o recomendarse que tengan descendencia este tipo de parejas?¿Cual es la opinión general? Espero respuestas.  
 
Picture
Recopilando viejos post de mis ex-blogs, he encontrado este, que creo que puede ser de especial utilidad. Se que es un poco largo y pesado de leer, pero merece la pena.
En el anterior artículo hablábamos ya de como no interesaba tener una población culta, y con conocimientos. Dichos conocimientos podrían suponer una herramienta de pensamiento crítico, que podría poner en jaque el establishment establecido.

Si bien habláblamos anteriormente de la educación, hoy hablaremos de los estudios.

Se ha puesto de moda, en los últimos años, presentar estadísticas, o anunciar productos como "cientíticamente testados". Y presentar una estadística, o decir que se ha echo un estudio científico parece que de por sí da validez a lo que se dice, cuando ni mucho menos es así.

Esto se utiliza de una manera tan flagrantemente engañosa, porque la mayor parte de la gente es incapaz de diferenciar una estudio bien echo de otro mal echo. Simplemente no saben como. En el colegio ponen mucho énfasis en que sepas de memoria la tabla de multiplicar, o las ecuaciones de la ley de expansión de los gases. Te enseñan a formular perfectamente en química y en bioquímica. Pero si cogiésemos a un estudiante de secundaria o incluso a un universitario, serían totalmente incapaces de distinguir un estudio científico bien echo de otro que no lo está. Y si les presentas una estadística se la tragan sin más. Y esto es utilizado en nuestra contra, de manera contínua.

En Per Ardua Ad Astra (blog médico), nos enseña como distinguir un estudio científico serio de una chapuza. Ya de principio debe tener algunos elementos (extraido del blog "Per Ardua Ad Astra"):

* Tamaño muestral. Es crucial hacer un estudio con el mayor número posible de personas, así nos aseguramos de que nuestras conclusiones serán sólidas (una gaviota no hace verano, y esas cosas). Así pues, sabemos que la simvastatina sirve para bajar el colesterol y reducir la mortalidad gracias a un estudio con más de cuatro mil participantes. Y un ensayo con más de quince mil pacientes nos dijo que añadir el caro clopidogrel a la aspirina no aporta ninguna ventaja.
* Grupo control. Es que si no hay grupo control, ¡no puedo calcular ninguna diferencia! Tengo que comparar mi fármaco con una sustancia biológicamente inactiva (placebo) o, mejor, con otro fármaco que ya haya demostrado su eficacia. Si no, no tengo forma de justificar que las variaciones que aparecen se deben a mi intervención: puede ser desde un efecto Hawthorne hasta una pura chiripa, pero en cualquier caso, mis resultados sirven para bastante poco.
* Representatividad de la muestra, estudios multicéntricos. Quiero saber si mi medicamento será útil cuando se lo dé a pacientes con artrosis en general, no si se lo doy a mujeres menopáusicas de 55 a 65 años sin osteoporosis y que no hayan tomado antiinflamatorios en el último mes. Cuantas más condiciones ponga, más boletos tengo para que el estudio no sea extrapolable. Y un estudio que no es aplicable a la práctica clínica, es una perfecta pérdida de tiempo y dinero.
Obviamente, esto también tiene un contrapartida: ¿y si resulta que el medicamento sólo es útil en mujeres? Para eso está el análisis multivariante; cuando procesemos los resultados veremos que estos varían en función del sexo (o de la edad, o…) y dejaremos una sugerencia a otros investigadores: ¡eh, centraos en este subgrupo!
* Aleatorización. Si asigno al azar quién recibe el fármaco y quién el placebo, al final tendré dos grupos iguales entre sí. Pero si en el hospital A damos el fármaco y en el B dan el placebo, ¿las diferencias se deben al medicamento, a que el A tiene pacientes más enfermos, o a que en el B se les añaden otros tratamientos?
* Solidez de las variables de resultado. Todos sabemos que tener alto el azúcar es malo. Pero también sabemos que morirse es aún peor. Por consiguiente, a mí me da igual que un medicamento baje la glucosa: ¡lo que quiero es no morirme por la diabetes! No vaya a ser que el medicamento me baje el azúcar… pero me cause un infarto.
* Enmascaramiento: simple, doble o triple ciego. Del mismo modo que a los catadores no se les dice qué están probando, en un ensayo no se debe decir si te estoy dando el antiguo y poco eficaz tratamiento, o la chachipastilla que te va a poner bueno en tres días. Entre otras cosas, porque quizás la pastilla no sea tan chachi… pero tú te lo creas y le digas al médico que, huy, ya estás mucho mejor de los temblores. Así que podemos “cegar” al paciente (simple ciego), al paciente y al médico que lo evalúa (doble), o al paciente, al médico, y al matemático que procesa los datos (triple ciego). Así nadie puede tener la tentación de inclinar los resultados.
* Significación estadística. Significación clínica. Que algo sea “estadísticamente significativo” significa que, si realmente no hubiese diferencias entre las opciones ensayadas, sería la hostia de raro encontrar las diferencias de mi estudio, u otras aún mayores. Digamos que la significación estadística (que se otorga a partir del 5%, un valor elegido por convenio) es como un sello que avala mis resultados: señores, aquí hay una diferencia, y casi seguro que no es por casualidad.
Pero precaución: significación estadística no implica relevancia clínica. Puede que un antibiótico cure la infección en 8,3 días y otro lo haga en 8,2. A eso le puedes poner las cintas que quieras, pero ya me dirás si vale la pena dar un medicamento nuevo y más caro a cambio de 0,1 días de ingreso menos.

En el caso de las estadísticas, la cosa quizá se complica una cosa más. Ha sido habitual, en los últimos años, ver ciertas estadísticas de las empresas de gestión de derechos de autor (Lease $GAE, por ejemplo), diciendo lindezas del tipo:

"Y es que estiman que, solo por el efecto de la descargas no autorizadas de libros digitales, han dejado de ingresar más de 400 millones de euros de enero a junio de este año". (Fuente artículo en el periódico El País)

Pero ¿de donde se sacan esta cifra? Primeramente, harémos el cálculo: de enero a junio van 180 días. Lo cual supone una pérdida de 2.222.222,22 € diários. Pongamos un precio médio de 10€ por libro (los habrá de 20€, y los habrá de 5€), y nos salen 222.222,22 libros diários de media. Ya la primera en la frente. La cifra parece un poco inflada. Pero si la ponen será por algo. Ricardo Galli, en un magistral pos en su blog dijo al respecto:

"¿Citan algún estudio que de soporte al titular? No, ninguno. Hay sólo tres enlaces autereferentes, en ninguno se enlaza a ningún estudio mínimamente relacionado con el titular (al final, en la caja, mencionan uno de 2009, pero no había iTablet".

Y esta es una costumbre que se suele perder cuando lo que intentan es colarnosla. Nos debería crujir, y mucho, que no se mencione en ninguna parte el estúdio que ha dado lugar a las afirmaciones. Y por supuesto hay que consultar el estúdio para saber si la metodología aplicada ha sido la correcta.

Los fallos metodológicos son más habituales de lo que creemos. De echo, casi todos los estudios realizados sobre la Homeopatía comenten estos fallos. En el apartado de pruebas científicas de la página ¿Que es la homeopatía? nos comentan a este respecto:

"Uso de homeopatía para tratar efectos adversos de tratamientos contra el cáncer (versión original). De los ocho estudios analizados, cuatro no proporcionan resultados positivos, dos son de metodología muy dudosa y solamente dos parecen arrojar algún resultado favorable a la homeopatía. Conclusión de los revisores: hay que replicar estos estudios."

A todo esto, hemos de incluir toda clase de falacias utilizadas para demostrar las cosas sin tan siquiera usar pruebas. Algunas de las más importantes serían (extraido de wikipedia):

- Cum hoc, ergo propter hoc: o la correlación o relación entre dos implica que uno es causa y otro efecto, que afirma que dos eventos que ocurren a la vez tienen necesariamente una relación causa-efecto. Se expresa de la siguiente manera: si ocurre A y correlacionadamente después ocurre B entonces A ha causado a B. Esta falacia hace una conclusión prematura de la causalidad incluso sin evidencias que la soporten. Esto es una falacia lógica porque aunque probable existen al menos otras cuatro posibilidades; 1. que B sea la causa de A; 2. que haya un tercer factor desconocido que sea realmente la causa de la relación entre A y B; 3. que la relación sea tan compleja y numerosa que los hechos sean simples coincidencias y 4. que B sea la causa de A y al mismo tiempo A sea la de B, es decir, que estén de acuerdo, que sea una relación sinérgica o simbiótica donde la unión cataliza los efectos que se observan.
- Falacia de la causa simple o efecto conjuntivo o relación espuria: Esta falacia lógica de causalidad ocurre cuando se asume que existe solo una simple causa para un resultado cuando en realidad puede haber un conjunto específico o suficiente de causas que lo hayan provocado. En esta falacia lógica dos sucesos sin conexión lógica, se relacionan causal e incorrectamente debido a un tercer suceso o factor desconocido denominado factor desorientador o variable escondida que los provoca. La relación espuria da impresión de fortaleza y ligazón fuerte entre dos sucesos que es inválida cuando es examinada objetivamente. Véase la navaja de Occam que en su aplicación puede crear una relación espuria debido al desconocimiento de un factor más sencillo. Esta sobresimplificación es un caso específico de falso dilema donde otras posibilidades son ignoradas.
- Circularidad entre causa y consecuencia: Es una falacia lógica donde la consecuencia de un determinado fenómeno es llamada a ser también la causa principal. Esto es conocido como la falacia del huevo o la gallina que hace referencia al dilema de causalidad que surge de la expresión «¿qué fue primero, la gallina o el huevo?». Puesto que el huevo y la gallina se crean recíprocamente en ciertas circunstancias la respuesta es ambigua.
- Petición de principio o petitio principii o fe de origen: Es una falacia que ocurre cuando la proposición a ser probada se incluye implícita o explícitamente entre las premisas de las que parte el razonamiento.
- Falacia de las muchas preguntas o pregunta compleja con la cual, el mero hecho de responder la pregunta implica presuponer en la respuesta algo que no se quiere asumir como cierto. La finalidad de dicha falacia es que el adversario dialéctico asuma en su contestación alguna información que no se quiere conceder bien por falsa o bien porque dicha concesión perjudica gravemente la argumentación que pretende sostener. Para sortear dicha falacia lo idóneo sería no contestar, para no dar información extra que no se desea conceder al interlocutor.
- Post hoc, ergo propter hoc o post hoc o correlación coincidente o causa falsa o non sequitur (‘no le sigue’ en latín): Es una expresión latina que significa «después de esto, luego a consecuencia de esto» es un tipo de falacia que asume que si un acontecimiento sucede después de otro, el segundo es consecuencia del primero. Es verdad que una causa se produce antes de un efecto pero la falacia viene de sacar una conclusión basándose sólo en el orden de los acontecimientos. Es decir, no siempre es verdad que el primer acontecimiento produjo el segundo acontecimiento. Esta línea de razonamiento es la base para muchas creencias supersticiosas y de pensamiento mágico. Véase teoría del dominó o también cum hoc, ergo propter hoc que no hace hincapié en el orden aunque sí en la correlación de dos sucesos.
- Non sequitur: Las razones dadas para soportar una afirmación son irrelevantes o no relacionadas.
- Falacia de la regresión o del retroceso: Es una falacia lógica en la que se asume una causa donde no existe. Este tipo de falacia es un caso especial de la falacia Post hoc, ergo propter hoc. Esta falacia se denomina de retroceso porque se produce cuando se asocia una causa simple a la desaparición o retroceso de un factor. Conduce a las supersticiones y al pensamiento mágico.
- Falacia del francotirador: Es una falacia lógica donde la información que no tiene relación alguna es interpretada, manipulada o maquillada hasta que ésta aparezca tener un sentido. El nombre viene de un tirador que disparó aleatoriamente varios tiros a un granero y después pintó una diana centrada en cada uno de los tiros para autoproclamarse francotirador. Tiene que ver con el sesgo cognitivo Ilusión de serie donde las personas tienden a ver patrones donde solo hay números aleatorios. Esta falacia no se aplica cuando uno tiene una predicción o una hipótesis particular antes de observar los datos. Uno podría tener una teoría de cómo debería comportarse algo o el patrón que debe seguir algo y comprobar mediante pruebas empíricas o datos que de hecho es así (método científico). Alternativamente, se pueden tomar los datos observados para construir una hipótesis tal como hace el francotirador pero luego es necesario ensayar la hipótesis con nuevos datos. Véase test de hipótesis. Uno no puede usar la misma información para construir y después ensayar o testar la hipótesis ya que incurriría en la falacia del francotirador.
- Falacia de dirección incorrecta: Es una falacia lógica de causa en la que la causa y el efecto están intercambiados. La causa pasa a ser el efecto y viceversa. Es un tipo especial de la falacia cum hoc, ergo propter hoc o también de falso dilema.
- Argumentum ad consequentiam o argumento dirigido a las consecuencias: Es un argumento que concluye que una premisa (típicamente una creencia) es verdadera o falsa basándose en si esta conduce a una consecuencia deseable o indeseable. Es una falacia porque basar la veracidad de una afirmación en las consecuencias no hace a la premisa más real o verdadera. Asimismo, categorizar las consecuencias como deseables o indeseables es intrínsecamente una acción subjetiva al punto de vista del observador y no a la verdad de los hechos
- Argumentum ad baculum o argumento dirigido al bastón o al mando o argumento por la fuerza: Es un argumento donde la fuerza, coacción o amenaza de fuerza es dada como justificación para una conclusión. Es un caso especial negativo del argumentum ad consequentiam. Este tipo de falacia se da en los casos en los que se duda en intervenir o no, en un conflicto. Se basa la decisión en algunos, en la consecuencia de actuar o no actuar, lo que justifica la intervención. Sin embargo, aunque estas decisiones preventivas previas, modifican forzosamente las predichas y subjetivas consecuencias, no aclaran la necesidad de actuar o no aseguran la verdad de las premisas en las mismas. El miedo a las consecuencias no puede ser el motor de ninguna decisión ni es capaz por sí mismo de hacer más veraz una posibilidad.
- Falacia del punto medio o falacia del compromiso o falacia de la moderación: se genera al asumir que la conclusión más valida o certera es la que se encuentra siempre como compromiso entre dos puntos de vista extremos. La falacia se produce porque la verdad o certeza de idoneidad se basa no en los argumentos sino en premisas subjetivas (se subjetiviza la verdad o mentira de un hecho) de qué es lo que se ha considerado como extremo y qué se considere como punto medio y que se considere que éste es siempre cierto. Es posible que lo considerado como extremo es en realidad el hecho cierto. Esta falacia viene del hecho de que con frecuencia una posición intermedia o moderada suele ser correcta.
- Recurso de probabilidad o apelar a la probabilidad: Es una falacia lógica que asume que porque algo es posible o probable, es inevitable que pase. Esta falacia es usada para provocar y promover la paranoia.
- Conclusión irrelevante o ignoratio elenchi o refutación ignorante o eludir la cuestión: Es la falacia lógica de presentar un argumento que puede ser por sí mismo válido, pero que prueba o soporta una proposición diferente a que la que debería apoyar. Aristóteles creía que todas las falacias lógicas podían ser reducidas a ignoratio elenchi. También en algunos casos estas conclusiones irrelevantes son intentos deliberados por parte de manipuladores, expertos en falacias lógicas, de cambiar el asunto de la conversación.
- Argumentum ad hominem o argumento dirigido al hombre: Consiste en replicar al argumento atacando o dirigiéndose a la persona que realiza el argumento más que a la sustancia del argumento. Tu quoque en el que se desvelan trapos sucios suele ser un mecanismo.
- Falacia del hombre de paja o argumentum ad logicam: Es una falacia lógica basada en la confusión de la posición del oponente. Generar un «hombre de paja» es crear una posición fácil de refutar y luego atribuir esa posición al oponente para destrozarlo. En realidad el argumento real del oponente no es refutado sino el argumento ficticio que se ha creado. El nombre viene de los hombres de paja que se usan para entrenar en el combate y que son fáciles de abatir. Es decir, se atacan los flecos o posibles malinterpretaciones que se puedan hacer de la premisa.
- Argumentum ad silentio o argumento dirigido al silencio: Consiste en considerar que el silencio de un ponente o interlocutor sobre un asunto X prueba o sugiere que el ponente es un ignorante sobre X o tiene un motivo para mantenerse en silencio respecto a X. En relación con esta falacia, es necesario hacer referencia a la doctrina jurídico-procesal llamada «de los actos propios», por la cual, en una de sus aplicaciones más frecuentes, si una de las partes en un proceso no alega cierto hecho, dato, prueba o argumento disponiendo de trámite para hacerlo, se presumirá que carece del mismo. Por tanto, aunque lógicamente el argumentum a silentio o ex silentio es una falacia, porque el silencio de un interlocutor no puede tomarse como prueba de certidumbre de lo dicho por un interlocutor contrario, en el terreno de la pura retórica puede ser un indicio de falta de argumentos o de falta de capacidad para contrarrestar dialécticamente los argumentos expuestos por la adversa. Esta presunción se realiza en el terreno jurídico por ser este un terreno subjetivo marcado por leyes que están hechas para que la mayoría pueda quedar satisfecha. Y esto es así porque la mayoría posee el prejuicio de que el silencio de un interlocutor implica la falta de argumentos o un motivo particular para tenerlo y también porque el que rompe el estado de normalidad tiene la obligación de probar con argumentos las acusaciones.

Conclusión

Al final, el gran problema es que la mayor parte de las personas no tienen las herramientas necesarias para hacer frente al fraude o a la charlatanería. No saben distinguir un estúdio científico serio y bien echo de una chapuza "ad-hoc" para demostrar un interés concreto. Y eso nos hace manipulables. El propio estado es el primero que no sienta precedente, obligando a nuestros estudiantes a conocer todos estos métodos de confirmación de las pruebas dadas, pudiendo así presentar cualquier cosa con el beneplácito de todos.
Esta falta de herramientas para detectar la charlatanería o, incluso, la pura estafa, lleva a éxito comercial de pulseritas mágicas, colchones y almohadas con imanes, o a que la gente piense que tomando una disolución 30CH de arsénico se cura el asma. Simplemente la mayor parte de la población está expuesta a esto. Y mientras nuestros dirigentes miran para otro lado.
¿Deberíamos actuar por nosotros mismos?
 
Picture
La verdad es que hoy tenía pensado hablar sobre otro tema en la sección de ciencia (habrá que esperar a la semana que viene). Pero la actualidad manda, y las alertas nucleares desatadas en Japón este fin de semana, como consecuencia del terremoto ocurrido en Sendai (Norte del Japón) de 8,9 grados, y el Tsunami desatado después, que ha arrasado con las costas niponas, tienen en vilo a medio mundo.
Y dentro de toda la vorágine de información, se ha vuelto a abrir en enquistado debate sobre le energía nuclear, con dos posiciones enfrentadas: a seguridad por un lado y la dependencia energética por el otro.
Por un lado tenemos a los pro-nucleares, a los que en gran parte no puedo quitar la razón. Como bien nos explica MiGUi  en su blog:
" Yo estoy muy a favor de las energías renovables y estoy cada vez más convencido de que debemos volcar muchos esfuerzos en ese camino e intentar reducir las demás aportaciones energéticas en la medida en que sea posible. Pero no por ello debemos dejar tirada en la cuneta a la energía nuclear. Sí, hay que evitar la dependencia con combustibles que se acaban, pero entre tanto no podemos perder la cabeza. Y me atrevería a decir que alguien que tenga conciencia ecológica debería apostar antes por tener centrales nucleares que por centrales térmicas o de combustibles fósiles. Porque sí, es cierto que la nuclear tiene riesgos y que el residuo radioactivo es un problema porque genera una mierda brillante que hay que esconder muy bien, pero señores, no olvidemos que esas centrales térmicas están emitiendo a la atmósfera millones de toneladas de basura que atenta directamente contra nuestra salud. Mientras que en el caso de una nuclear el riesgo es factible, pero no es un daño seguro y constante."

Y a lo demás nos recuerda:

"Hasta ahora, la podemos extraer las siguientes conclusiones de todo esto:

1) Las centrales nucleares modernas no tienen nada que ver con las antiguas. Hoy conocemos mucho más sobre seguridad nuclear y los reactores son más seguros que nunca.

2) Ante el mayor terremoto de la historia de Japón las centrales nucleares de Japón que lo han sufrido se han detenido de forma segura y automática y las que no, han seguido operando con normalidad.

3) Los problemas causados en Fukushima, siendo muy graves y alcanzando un 4 de 7 en la Escala Internacional de Accidentes Nucleares siendo el más grave desde Chernóbyl no ha conllevado pérdida de vidas humanas ni, por el momento, contaminación radioactiva alguna.
"

He de decir que estoy deacuerdo con él en bastantes puntos,  aunque sólo parcialmente. A saber:

   1 - "... hay que evitar la dependencia con combustibles que se acaban". 
Creo que hasta aquí todos deacuerdo. Tener una dependencia de combustibles que no sabemos cuando se acabarán y que, a parte, nos está destrozando la atmósfera es un suicidio como civilización. No creo que nadie pueda discutir esto.
   2 - ".. Y me atrevería a decir que alguien que tenga conciencia ecológica debería apostar antes por tener centrales nucleares que por centrales térmicas o de combustibles fósiles".
   Hay que reconocer que las plantas nucleares son lo más ecológico que existe. El único residuo que expulsan es vapor de agua (y no, no es radiactivo. Ni parecido, vamos. Quien piense eso es que ve demasiado los Simpson.). Y desde luego es preferible a las centrales térmicas o de carbón. Ahora, luego explicaré porque no termino de estar deacuerdo en este punto.
   3 - "...Hoy conocemos mucho más sobre seguridad nuclear y los reactores son más seguros que nunca"
        Gracias a los accidentes que hemos tenido en el pasado, ahora sabemos más que nunca sobre que tipo de accidentes pueden ocurrir, y por supuesto, se han echo las centrales más seguras. Ahora explicaré también porque no estoy totalmente deacuerdo en este punto.

Discrepancias:

   1 - Si bien es cierto que las centrales nucleares sólo expulsan vapor de agua, pero deberíamos tener en cuenta lo que hay antes, y lo que hay después.
   
       1.1 - El antes: La extracción de uranio:
                "El proceso de extracción del uranio desde el material en bruto varía de unos yacimientos según su riqueza y su distribución geológica, y como ya se ha mencionado su bajo precio unido a su escasa abundancia hace que para ser rentable sea necesario mover enormes cantidades de roca en poco tiempo, a veces sin importar mucho las consecuencias medioambientales." .
"En una primera etapa se muele el material extraído en varias fases y se reduce de un tamaño inferior a 100 mm, y se almacena en montones según su concentración de uranio o su granulometría. La clasificación por tamaños se hace mediante tamices vibrantes y riego, y la concentración mediante espesadores y prensas para dar una pasta de 1/3 de concentración de sólidos, entre los que se encuentra el U3O8.
Los montones de tamaño granulometría y menos concentración se desechan directamente, las de una concentración y tamaño intermedio pasan a un proceso de lixivación estática, y los mas concentrados a lixivación dinámica.
En ambos procesos se usa gran cantidad de agua que queda seriamente contaminada y que; o bien se filtra en la misma mina cuando se hace in-situ o queda almacenada en grandes lagos donde contamina el terreno y el subsuelo por generaciones. Esta es precisamente la parte del proceso mas contaminante, ya que no hay una manera más barata y fácil de separar el Uranio del resto de minerales, y además de que tener que concentrar metales pesados se han de usar sustancias altamente agresivas como ácidos, todo ello en cantidades enormes y durante todo el año."(Fuente: The Dark Brain Factory)

        1.2 - El después: Los residuos nucleares:
                 "Otro impacto medioambiental, de gran repercusión social, es el almacenamiento de los residuos procedentes de centrales nucleares. Los residuos de baja y media actividad son entregados a Enresa y posteriormente almacenados en el centro de El Cabril (Córdoba), mientras que los combustibles irradiados están siendo almacenados, hasta el momento, en las piscinas de las plantas nucleares que los originan, a la espera de que los procesos de investigación actualmente desarrollados permitan bien su almacenamiento en un único cementerio nacional o incluso europeo, o bien su tratamiento mediante transmutación atómica para desactivarlo o convertirlo de nuevo en combustible aprovechable." (Fuente: Comisión nacional de la energía ).

   2 - "Hoy conocemos mucho más sobre seguridad nuclear y los reactores son más seguros que nunca". Totalmente cierto. Pero todo experto en seguridad te dirá lo mismo que yo: la seguridad perfecta no existe. Es cierto que las centrales nucleares son muy seguras, y que los accidentes, sobre todo de alto nivel, son escasos. 
        Tiene toda la razón en que el accidente de Chernobyl no es extrapolable a las centrales nucleares que funcionan actualmente en Europa o EEUU, y que las japonesas están entre las más seguras que existen. Y quizá todo este problema quede en agua de borrajas.
        Pero quizá si hay una lección que debemos aprender de Chernobyl: en caso de accidente las consecuencias son muy graves, y duran años. De echo, a día de hoy (25 años después) la radiactividad sigue siendo un problema grave en la zona, y la central nuclear no está todavía en condiciones de ser accesible para su desmantelamiento total. A día de hoy todavía hay cientos de afectados por la radiación, y cientos de personas expuestas a esta de forma innecesaria. ¿Realmente es necesario correr este riesgo en pos de mantener un nivel determinado de energía en pull para su utilización?

Si bien es cierto que algunos han aprovechado todo este lio para hacer oportunismo cuasi político, personalmente no veo mal que se haya reavivado el debate. Estaba demasiado enquistado, en favor de mantener un equilibrio económico, sin tener casi nunca en cuenta aspectos técnicos o de seguridad por ninguna de las dos partes.

Agradezco a MiGUi  que haya echo al menos un planteamiento serio y bien fundado sobre el debate. Se echa de menos. Por cierto, que recomiendo leer en su artículo (muy bien explicado), cual es el funcionamiento de las centrales nucleares.

Deseo, aunque tengo mis dudas, que el problema nuclear japones quede en nada, o al menos, en daños que afecten lo menos posible a la población. 

Y como debería ser ya desde hace algún tiempo, que cada uno extraiga sus propias conclusiones.
 
Picture
En los últimos tiempos estamos viendo proliferar, tanto en nuestro país, como en el extranjero, diferentes grupos antivacunas. Pero no son algo de ahora.

Ya en mayo de 1901, en Boston, se creo un programa especial de vacunación, para luchar contra una epidemia de Viruela. Dicha epidemia causó en dos años 1.596 casos de los cuales 270 acabaron con la muerte de los afectados. A finales de 1901 se había vacunado ya a 400.000 personas. Se había creado, incluso, una brigada especial, dedicada, específicamente a vacunar a las personas con menores recursos económicos. Ya entonces, un resportero acompaño a estas brigadas y denunció el maltrato que recibían los vagaundos al ser forzados a recibir la vacunación. 

Aquí comenzaron los grupos antivacunas, que todavía siguen reducciendo la inmunidad del rebaño, como sucedió recientemente en Granada, con 90 afectados y 25 hospitalizaciones por Sarampión, una enfermedad perfectamente controlada mediante el programa de vacunación estandar.

Pero fué en 1988 cuando un estudio relacionó las vacunas con el autismo, e hizo saltar todas las alarmas. En dicho estudio el doctor Andrew Wakefield, aseguró que nueve de los 12 niños que analizó en su trabajo presentaban autismo después de haber sido vacunados. Pero la realidad fue otra muy diferente.

La realidad se empeña en imponerse, y la revista  'British Medical Journal'  confirmó que este estudio se trataba de, llana y simplemente, un fraude. Este nuevo examen del caso demostró que Andrew Wakefield alteró los datos sobre el historial de los pacientes "con el objetivo de apoyar su teoría de que había identificado un nuevo síndrome"De hecho, los documentos indican que, pese a que Wakefield aseguró que nueve de los 12 niños analizados en su trabajo presentaban autismo después de haber sido vacunados, la realidad es que sólo a uno se le confirmó un autismo regresivo. Además, al contrario de lo afirmado por Wakefield, lejos de estar sanos, a cinco de los pequeños se les había detectado previamente algún tipo deproblemas en el desarrollo. En un editorial que acompaña al trabajo en la revista médica, la editora de la publicación, Fiona Godlee califica al estudio de Wakefield como "un fraude elaborado".


La mayor parte de las argumentaciones que los antivacunas utilizan en contra de estas, las podemos encontrar en esta entrada del blog médico "Per Ardua Ad Astra". Y hay que dejar claro desde el pincípio, que la mayor parte de estas argumentaciones, si no todas, son rebatibles con conocimientos básicos adquiridos en la educación primaria. 

Pero la pregunta que me hago es: ¿En que momento estas personas han perdido este conocimiento básico?¿porque hacen aseveraciones tan graves sin ningún tipo de fundamento?. Quizá nuestro sistema educativo funcione peor de lo que creíamos.