Translate

lunes, 31 de marzo de 2014

Metodologías científicas

El método científico



Método científico: se basa en la experimentación y en la medición, está sujeto a principios de razonamiento.
Fases:
1-       Observación sistemática: aplicar atentamente los sentidos son objeto para su estudio (ocasional o causal)
2-       Medición y experimentación (inducción) se extraen por observación o experiencias su principio particular.
3-       Formulación de hipótesis: se plantean ideas mediante la observación (se hacen pruebas por experimentación).
4-       Análisis y modificación de las hipótesis (refutación o antítesis de la hipótesis) con su tesis o teoría final (conclusiones).
Pilares:
1- Reproducibilidad: capacidad de repetir un experimento, en cualquier lugar y por cualquier persona.
2- Refutabilidad: toda proposición puede ser falsada (refutada).
Métodos científicos:
1-       Empírico-analítico: sé autocorrige y es progresivo, de ciencias descriptivas. Puede ser experimental, hipotético-deductivo, de observación científica (de ciencias descriptivas), de medición estadística, etc.
2-       Hermenéutico: estudia la coherencia interna de textos, de normas y principios.
3-       Dialéctico: estudio de los fenómenos históricos y sociales respecto a su movimiento continuo.
4-       Fenomenológico: estudia el conocimiento acumulativo.
5-       Histórico: estudia los dos según su cronología (la trayectoria, condicionamiento a distintos períodos).
6-       Sistémico: modela el objeto por la determinación de sus componentes y relaciones (estructura y dinámica) .
7-       Sintético: estudia hechos aislados y los unifica mediante una teoría
8-       Lógico-deductivo: método de inferencia a partir de enlace de juicios se obtienen conclusiones particulares.
9-       Lógico- inductivo: saca conclusiones generales de casos particulares.
10-    Analógico: infiere de la semejanza o afinidad de ciertos objetos características también semejantes.

Hipótesis (suposición): idea no necesariamente verdadera basada en una información previa.
Características:
1-       Se refieren a una situación real.
2-       Las variables debe estar bien definidas y ser concretas
3-       La relación entre variables deben ser claras
4-       Los términos de  la hipótesis y sus relaciones deben poder ser observados y medidos
5-       Las hipótesis deben estar relacionadas con técnicas disponibles para poder  probarlas.

Teoría: sistema lógico deductivo constituido por:
1-       Un conjunto de hipótesis.
2-       Un campo de aplicación

3-       Reglas de las que se extraerán consecuencias de la hipótesis de la teoría.

Sesgo cognitivo, o prejuicio o predisposición cognitiva son alteraciones de la mente difíciles de eliminar y que distorsionan la percepción o generan un juicio impreciso o interpretación ilógica.

Parte de conceptos o nociones:
Concepto: imagen mental o construcción por la que entendemos la experiencia que fluye de la interacción con nuestro entorno.
Características:
1-       El objeto individual es un nombre propio, no un concepto.
2-       Surge de la necesidad de generalizar, clasificar propiedades, generar grupos y cualidades.
3-       Constituye el significado de diversas formas

4-       Designa a objetos distintos.











La filosofía de la ciencia

Es la rama de la filosofía que lleva a cabo una reflexión o interpretación de «segundo orden» sobre la ciencia y sus resultados, tomando como objeto de estudio propio los problemas filosóficos (sustantivos y metodológicos) que la ciencia plantea. 
Si suponemos que toda actividad humana teórica es una reflexión o interpretación de «primer orden», o de primer nivel, esto es, una actividad a través de la cual el hombre toma contacto conceptual con su medio natural y lo interpreta, a la filosofía le toca ser una de las principales actividades, no la única, de «segundo nivel», o de «segundo orden», en el sentido de que toma como objeto de estudio propio todas o parte de aquellas interpretaciones o reflexiones primeras. Así pues, se habla de filosofía de la ciencia cuando la filosofía reflexiona sobre la ciencia y sus resultados.
La epistemología, entendida como teoría del conocimiento, ha existido prácticamente siempre a lo largo de toda la historia del pensamiento y, desde ella, se han planteado distintas cuestiones relativas a la naturaleza del conocimiento científico. Y, así, hallamos cuestiones sobre el saber o la naturaleza de la ciencia en la filosofía griega, en especial en Aristóteles; en la filosofía medieval, sobre todo entre los escolásticos G. Grosseteste, R. Bacon y Guillermo de Occam; y en el período moderno, principalmente con ocasión de la aparición de la nueva ciencia, con F. Bacon, Descartes, Newton, Locke, Hume. Kant suele considerarse como el principal punto de inflexión, del que dependerá buena parte de la posterior reflexión sobre la ciencia (a él se atribuye la demarcación o distinción entre filosofía y ciencia, tal como se la entiende en la actualidad, al hacer de la «teoría del conocimiento» el meollo de la filosofía, pasando así ésta a ser el «fundamento» de la ciencia).
La filosofía de la ciencia, en cambio, se enfrenta con el problema de la naturaleza de la ciencia y de los problemas filosóficos que ésta plantea, de una manera que podemos llamar institucionalizada y directa, desde finales del siglo XIX y, sobre todo, a partir del primer tercio del siglo XX, cuando comienza la corriente filosófica denominada «positivismo lógico» protagonizada por el Círculo de Viena y, paralelamente, se asiste a un desarrollo creciente y muy importante de la física teórica (teoría de la relatividad especial y teoría de los quanta). La nueva física no resultaba compatible con las posiciones filosóficas tradicionales sobre la ciencia. Hasta este momento, la física de Newton se contemplaba como un ejemplo ya contrastado de la solidez del empirismo y del inductivismo. Sin embargo, las nuevas teorías físicas de la relatividad especial y la de los quanta vinieron a demostrar que las teorías de Newton no eran más que una buena aproximación a la realidad, pero que, en definitiva, contenían resultados y previsiones inexactos (por ejemplo, cuando se aplica a cuerpos en movimiento a grandes velocidades o al mundo subatómico). La nueva filosofía de la ciencia creyó mejor acercarse de nuevo a la postura de Hume, que defendía para las afirmaciones científicas sólo un valor de probabilidad y, a la vez, criticaba la confianza que la mente humana ponía en la inducción. Si las teorías científicas no podían justificarse simplemente con el recurso a la inducción y a la observación empírica, eran necesarios nuevos planteamientos. Con independencia de estas exigencias, cabe destacar los intentos de renovación, hechos por el neokantismo, de una filosofía de la ciencia inspirada en Kant por obra sobre todo de Ernst Cassirer, que defendía, en sustancia, la importancia y el significado de elementos a priori en la ciencia. A esta corriente se opuso, inicialmente, el positivismo de Ernst Mach, para quien la ciencia no era más que una reflexión sobre hechos recibidos a través de la sensación, y luego el conjunto de tesis sostenidas por el llamado Círculo de Viena, que recibieron, globalmente, el nombre de «empirismo lógico» y «positivismo lógico». El empirismo lógico del Círculo de Viena mantiene tanto el valor del empirismo y el inductivismo como la función de las matemáticas y la lógica en el seno de las teorías científicas. De este Círculo surgió la que ha sido denominada Concepción Heredada de la ciencia (CH), cuyo autor más representativo es Carnap. La CH daba una imagen de la ciencia basada en los siguientes principios:
1) la ciencia es realista (pretende describir el mundo real), existe un criterio definido para diferenciarla de lo que no lo es (demarcación), es acumulativa, de modo que, aun existiendo errores, los conocimientos avanzan y se edifican unos sobre otros y, además, es una (no hay más que una sola ciencia que habla desde diversos aspectos del mundo real);
2) en ella hay que distinguir claramente lo que es observación y lo que es teoría, pero a la vez los términos teóricos deben definirse en términos experimentales o de observación (mediante reglas de correspondencia), siendo ésta, la observación junto con la experimentación, lo que fundamenta y justifica las hipótesis y las teorías;
3) éstas poseen una estructura deductiva (se conciben como sistemas axiomáticos) y se aceptan, rechazan o corrigen de acuerdo con procedimientos de verificación o confirmación, que básicamente consisten en la contrastación de afirmaciones sobre hechos o consecuencias que se deducen de las hipótesis;
4) los términos con que se expresan las teorías (lógicos y matemáticos, teóricos y observacionales) se definen todos cuidadosamente, de modo que todo término esté definido con precisión -salvo los sistemas formales-sintácticos de la geometría moderna, que utiliza términos no definidos, interesando sólo la relación entre ellos, así ya no hablamos "de verdad" en un sistema, sino de validez- , y los términos teóricos sean sólo «abreviaturas» de fenómenos observados, con los que se corresponden según una determinada y cuidadosa «interpretación».
En estas teorías, finalmente, hay que distinguir un contexto de justificación y un contexto de descubrimiento, lo que permite considerarlas ya sea sincrónicamente, atendiendo a la fundamentación lógica del resultado científico, ya sea diacrónicamente, atendiendo a los aspectos psicológicos e históricos que han llevado al resultado científico o a la teoría.
Una importancia creciente otorgada al aspecto histórico, junto con un creciente interés y un notable avance en los estudios sobre historia de la ciencia, dio origen a una manera de entender la filosofía de la ciencia, que se caracteriza por considerar que las teorías son resultados de un contexto social, cultural e histórico (contexto de descubrimiento). En esta nueva filosofía de la ciencia, destacan las aportaciones teóricas de Thomas Kuhn, N.R. Hanson, P. Achinstein, Stephen Toulmin e Imre Lakatos. Todos ellos basan sus reflexiones de segundo orden sobre la ciencia en estudios de historia de la ciencia, ajenos o propios. De ellos surge una nueva imagen de la ciencia, cuyas características básicas -más o menos comúnmente compartidas por todos ellos-, suponen:
1) adoptar las ideas de ciencia normal y de revolución en la ciencia, siendo la primera -según expone Kuhn en su Estructura de las revoluciones científicas (1962)- una actividad que intenta «resolver enigmas» dentro de un «paradigma» compartido por la comunidad científica, y la segunda un período de crisis, durante el cual se sustituye un paradigma antiguo por otro nuevo;
2) proceder mediante crisis o revoluciones, con lo que la ciencia no es acumulativa(los problemas nuevos pueden no tener nada que ver con los antiguos o éstos pueden quedar olvidados)
3) atribuir a los diversos cuerpos de conocimiento pertenecientes a diversos períodos la característica de la inconmensurabilidad, lo cual implica que sea difícil o imposible compararlos entre sí;
4) adoptar también cierta postura crítica en lo referente al contexto de justificación, sobre todo en lo tocante al modelo nomológico-deductivo de explicación científica.
Se ha interpretado que esta nueva filosofía de la ciencia, prácticamente iniciada porKuhn, ha sido como una «rebelión contra el neopositivismo», al entender la ciencia más bien como un proceso dinámico real que tiene aspectos históricos y sociológicos, cuyo sujeto es la comunidad de investigadores (contexto de descubrimiento), y no como una mera construcción lógica de fundamentación y justificación del pensamiento científico (contexto de justificación). En el distanciamiento de la epistemología respecto de las posturas mantenidas por el neopositivismo lógico, ocupan un lugar importante las críticas que Karl R. Popper dirige al positivismo lógico en su Lógica de la investigación científica (1934, 1959), sobre todo en lo tocante al principio de verificación y el enfoque inductivista general de la ciencia.      
Las nuevas tendencias epistemológicas provenientes de la sociología del conocimiento y de las ciencias cognitivas añaden nuevos argumentos a la relevancia de cualquier contexto (no sólo los de descubrimiento y justificación), iniciada por el enfoque histórico de la filosofía de la ciencia.    Por otro lado, dentro de una tradición analítica de la filosofía de la ciencia, aunque en contraposición a la concepción heredada, la concepción estructural de la ciencia (de Patrick Suppes, J. Sneed, W. Stegmüller, U. Moulines y otros) representa también una postura integradora de ambos contextos: tiene en cuenta los aspectos pragmáticos de las teorías y la presencia de la comunidad científica, sostiene básicamente que las teorías científicas son estructuras complejas (idea ya mantenida por Kuhn) y, ante las dificultades de considerar las teorías como cálculos formales, intenta una axiomatización informal de las mismas.

Emparentada con esta última orientación, se halla la concepción semántica de la ciencia (propuesta sobre todo por Frederick Suppe, Van Fraassen y Ronald Giere, siguiendo los estudios iniciales de E. B. Beth) que, además de considerar a las teorías científicas como estructuras, las considera asimismo como conjuntos de modelos, que al menos en parte representan fenómenos obervables. A mediados de los años sesenta, se añaden tres alternativas a la concepción heredada de la ciencia, debidas a la discusión entre partidarios de Popper y seguidores de Kuhn, y a las variaciones que introducen en las posturas iniciales de estos autores.
1-      Imre Lakatos introduce el término de «programa de investigación» -una reelaboración de la noción de paradigma de Kuhn- y destaca asimismo la dimensión social de la ciencia.
2-      Paul K. Feyerabend, que inicialmente había colaborado con Popper, adopta un punto de vista anárquico y provocador en su manera de entender la ciencia, criticando sobre todo la asunción de un determinado método científico.
3-      Larrry Laudan considera aún rígidos los criterios de Kuhn y Lakatos y no muy adecuados los de Popper, e introduce, como remedio, la teoría de las «tradiciones de investigación». Entre los autores pertenecientes al ámbito de la sociología del conocimiento se ha puesto de relieve el aspecto dinámico de la ciencia, hasta el punto de no considerarla más que un constructo social, perspectiva que suele rechazar la mayoría de estudiosos de filosofía de la ciencia.
En general el método científico es la manera regulada, ordenada y sistemática de proceder en la práctica de la actividad científica. Si se trata de ciencias formales, el método consiste en el razonamiento y la demostración de los enunciados y, en el mejor de los casos, en su axiomatización. Pero en las ciencias empíricas, como que los enunciados se refieren a hechos, debe comprobarse si aquéllos están de acuerdo con éstos. Por ello, ya en un sentido restringido y más propio, por método científico se entiende el conjunto de procedimientos que siguen las diversas ciencias para someter a contrastación las hipótesis formuladas. Como se tiende a creer que es irrelevante para la ciencia el modo como se obtienen las hipótesis -el llamado contexto de descubrimiento-, mientras que sí se considera importante el modo como se prueban o justifican -el denominado contexto de justificación-, se suele afirmar también que no existe una lógica o una metodología del descubrimiento, pero que sí hay una metodología o una lógica de la justificación. Quienes sostienen el inductivismo mantienen no sólo que el método se inicia con la observación y clasificación de hechos, a partir de las cuales por generalización se inducen hipótesis, sino también que éstas se someten a experimentación con miras a obtener su confirmación o su desconfirmación. Quienes defienden el deductivismo reducen el método científico a la contrastación de las hipótesis que la creatividad del científico imagina, para hallar explicación a los problemas que surgen en la actividad científica o en la vida diaria, a modo de conjeturas que se someten a pruebas rigurosas para comprobar si son falsas. La postura intermedia delabductivismo, admite que las hipótesis y las teorías científicas no sólo pueden ser desconfirmadas o refutadas, sino también aceptadas o confirmadas con la mejor de las explicaciones de que se disponga. Según el inductivismo, las hipótesis que superan las pruebas experimentales quedan confirmadas; pueden, por lo mismo, considerarse leyes inductivamente obtenidas; éstas, a su vez, se organizan en sistemas de leyes o teorías. 

Según el deductivismo, tal como lo plantea Popper, nunca podemos considerar las hipótesis como confirmadas y definitivas, y sólo podemos hablar de leyes y teorías corroboradas; la corroboración la adquiere una ley o una teoría a medida que va superando pruebas cada vez más rigurosas y a medida que permite predicciones más improbables. En la práctica, los pasos o momentos en que puede dividirse el método científico, siguiendo sustancialmente a M. Bunge, son esencialmente los siguientes:
1) Se parte de un cuerpo previo de conocimientos
2) Se plantea un problema
3) Se formulan hipótesis
4) Se deducen consecuencias contrastables
5) Se ponen a prueba experimentalmente estas consecuencias
6) Se valora el resultado
7) Se integran las hipótesis contrastadas en leyes, teorías y modelos
Éste es, en sustancia, el método hipotético-deductivo de la ciencia. No faltan, sin embargo, quienes, como P. Feyerabend sostienen que el método de la ciencia es no tener ningún método, o que toda investigación científica con éxito supone precisamente la inobservancia de las reglas metodológicas vigentes. Esta postura recibe el nombre de anarquismo metodológico.





La Filosofía de la ciencia es la investigación sobre la naturaleza general de la práctica científica. La filosofía de la ciencia se ocupa de saber cómo se desarrollan, evalúan y cambian las teorías científicas, y si la ciencia es capaz de revelar la verdad de las entidades ocultas y los procesos de la naturalezaSu objeto es tan antiguo y se halla tan extendido como la ciencia misma. Algunos científicos han mostrado un vivo interés por la filosofía de la ciencia y unos pocos, como Galileo, Isaac Newton y Albert Einstein, han hecho importantes contribuciones. Numerosos científicos, sin embargo, se han dado por satisfechos dejando la filosofía de la ciencia a los filósofos, y han preferido seguir 'haciendo ciencia' en vez de dedicar más tiempo a considerar en términos generales cómo 'se hace la ciencia'. Entre los filósofos, la filosofía de la ciencia ha sido siempre un problema central; dentro de la tradición occidental, entre las figuras más importantes anteriores al siglo XX destacan Aristóteles, René Descartes,John Locke, David Hume, Immanuel Kant y John Stuart Mill. Gran parte de la filosofía de la ciencia es indisociable de la epistemología, la teoría del conocimiento, un tema que ha sido considerado por casi todos los filósofos.

El problema de la inducción
Los resultados de la observación y experimentación suministran la evidencia para una teoría científica, pero no pueden demostrar que la teoría es correcta. Hasta la generalización empírica más modesta, por ejemplo que toda agua hierve a la misma temperatura, va más allá de lo que puede ser deducido de la evidencia en sentido estricto. Si las teorías científicas no expresaran más que la evidencia que suele sustentarlas, tendrían poca utilidad. No podrían ser utilizadas para predecir el curso de la naturaleza, y carecerían de poder explicativo.
El vínculo no demostrativo o inductivo entre la evidencia y la teoría plantea uno de los problemas fundamentales de la teoría del conocimiento, el problema de la inducción, dada su formulación clásica por David Hume, el filósofo escocés del siglo XVIII. Hume consideró simples predicciones basadas en observaciones pasadas, por ejemplo, un vaticinio como: el sol saldrá mañana, teniendo en cuenta que se ha observado que siempre salía en el pasado. La vida sería imposible sin anticipar el futuro, pero Hume construyó una argumentación excelente para mostrar que estas inferencias son indefendibles desde presupuestos racionales. Esta conclusión puede parecer increíble, pero la argumentación de Hume tiene todavía que ser contestada de un modo concluyente. Admitía que las deducciones inductivas han sido por lo menos razonablemente fiables hasta ahora, o no estaríamos vivos para considerar el problema, pero afirmaba que sólo podemos tener una razón para continuar confiando en la inducción si tenemos algún motivo para creer que la inducción seguirá siendo fiable en el futuro. Hume demostró entonces que tal razón no es posible. El nudo del problema es que pretender que la inducción será una garantía en el futuro es, en sí misma, una predicción y sólo podría ser justificada de manera inductiva, lo que llevaría a una cuestión de principio. En concreto, mantener que la inducción quizá funcionará en el futuro porque ha resultado útil en el pasado es razonar en círculo, asumiendo la inducción para justificarla. Si esta argumentación escéptica es válida, el conocimiento inductivo parece imposible, y no hay un argumento racional que se pueda plantear para disuadir a alguien que opina, por ejemplo, que es más seguro salir de la habitación por las ventanas que por la puerta.
El problema de la inducción se relaciona de forma directa con la ciencia. Sin una respuesta a la argumentación de Hume, no hay razón para creer en ninguno de los aspectos de una teoría científica que vaya más allá de lo que, en realidad, se ha observado. El asunto no es que las teorías científicas no resulten nunca ciertas por completo: esto es o debería ser una verdad obvia. El tema es más bien que no tenemos ninguna razón para suponer, por ejemplo, que el agua que no hemos sometido a prueba hervirá a la misma temperatura que el agua que hemos probado. Los filósofos han realizado un continuo esfuerzo para resistir a esta conclusión escéptica. Algunos han tratado de demostrar que los modelos científicos para sopesar evidencias y formular inferencias son, de algún modo, racionales por definición; otros, que los éxitos pasados de nuestros sistemas inductivos son susceptibles de emplearse para justificar su uso futuro sin caer en círculos viciosos. Un tercer enfoque sostiene que, aunque no podamos demostrar que la inducción funcionará en el futuro, sí podemos demostrar que lo hará si algún método de predicción lo hace, por lo que es razonable utilizarlo. Mediante teorías más recientes, algunos filósofos han sostenido que la actual fiabilidad de las prácticas inductivas, algo que Hume no niega, basta para proporcionar conocimiento inductivo sin otro requerimiento que el que la fiabilidad esté justificada.
Karl Popper ha aportado una respuesta más radical al problema de la inducción, una solución que constituye la base de su influyente filosofía de la ciencia. De acuerdo con Popper, el razonamiento de Hume de que las inferencias son injustificables desde una perspectiva racional es correcto. Sin embargo, esto no amenaza la racionalidad de lacienciacuyas inferencias son, aunque parezca lo contrario, deductivas en exclusiva. La idea central de Popper es que mientras la evidencia nunca implicará que una teoría sea verdadera, puede rebatir la teoría suponiendo que sea falsa. Así, un número de cuervos negros no implica que todos lo cuervos sean negros, pero la presencia de un único cuervo blanco supone que la generalización es falsa. Los científicos pueden, de esta forma, saber que una teoría es falsa, sin recurrir a la inducción. Además, enfrentados a una elección entre dos teorías opuestas, pueden ejercer una preferencia racional si una de las teorías ha sido refutada pero la otra no; entonces es racional preferir una teoría que podría ser verdad respecto a una que se sabe es falsa. La inducción nunca entra en escena, de modo que el argumento de Hume pierde fuerza.
Esta ingeniosa solución al problema de la inducción se enfrenta con numerosas objeciones. Si fuera cierta, los científicos nunca tendrían ningún motivo para creer que alguna de sus teorías o hipótesis son siquiera correctas por aproximación o que alguna de las predicciones extraídas de ellas es verdad, ya que estas apreciaciones sólo podrían ser justificadas por vía inductiva. Además, parece que la posición de Popper ni siquiera permite a los científicos saber que una teoría es falsa, puesto que, según él, la evidencia que podría contradecir una teoría, puede no ser nunca reconocida como correcta. Por desgracia, las inferencias inductivas que los científicos plantean no parecen ni evitables ni justificables.
El problema de la descripción
Aunque la discusión de Hume sobre la justificación de la inducción representa un hito en la historia de la filosofía, sólo ofrece una cruda descripción de cómo, para bien o para mal, los métodos inductivos funcionan en realidad. Mantenía que la inferencia inductiva es sólo un hábito de formación. Al haber visto muchos cuervos negros, de modo tácito aplicamos la regla 'más de lo mismo' y suponemos que el próximo cuervo que encontremos será también negro. Esto, como es evidente, no hace justicia a la práctica inferencial de los científicos, ya que éstos infieren a partir de la observación de entidades de una clase para llegar a la existencia y comportamiento de entidades de una clase muy diferente y a menudo no observable. 'Más de lo mismo' no llevará a los científicos desde lo que se ve en el laboratorio a la existencia de los electrones o los campos electromagnéticos. ¿Cómo comprueban entonces los científicos sus teorías, sopesan la evidencia y establecen inferencias? Este es el problema de la descripción en contraste con el problema de la justificación de Hume.
El problema descriptivo puede parecer fácil de resolver: sólo hay que preguntar a los científicos que describan lo que hacen. Es una ilusión. Los científicos pueden ser eficaces sopesando evidencias, pero no son eficaces ofreciendo una declaración de principios que recoja cómo llegan a ellos. Esto no es más sorprendente que el hecho de que los nativos de habla inglesa sean incapaces de explicar los principios por los que diferencian las oraciones gramaticales de las no gramaticales. Lo más sorprendente es cuán difícil ha sido resolver el problema de la inducción incluso para los filósofos de la ciencia que han dedicado a ello su actividad.
Quizá la forma más corriente de mostrar cómo se comprueban las teorías sea mediante el modelo hipotético-deductivo, según el cual las teorías se comprueban examinando las predicciones que implican. La evidencia que muestra que una predicción es correcta, confirma la teoría; la evidencia incompatible con la predicción, rebate la teoría, y cualquier otra evidencia es irrelevante. Si los científicos tienen una evidencia suficiente que corrobora y una no evidencia que rebate, pueden inferir que la teoría examinada es correcta. Este modelo, aunque es aproximado, parece en principio ser un reflejo razonable de la práctica científica, pero está envuelto en dificultades concretas. La mayoría de éstas demuestran que el modelo hipotético-deductivo es demasiado permisivo, al tratar evidencias irrelevantes como si aportaran certezas materiales. Para mencionar tan sólo un problema, la mayoría de las teorías científicas no implican ninguna consecuencia observable por sí misma, sino sólo al relacionarse en conjunto con otras suposiciones de base. Si no hay alguna clase de restricción sobre las suposiciones admisibles, el modelo permitiría considerar cualquier observación como evidencia para casi cualquier teoría. Esto es un resultado absurdo, pero es difícil en extremo especificar las restricciones apropiadas.
Dadas las dificultades que afronta el modelo hipotético-deductivo, algunos filósofos han reducido sus miras y han intentado dar un modelo mejor de refuerzo inductivo para una serie de casos más limitada. El caso más sencillo es una generalización empírica del tipo 'todos los cuervos son negros'. Aquí parece claro que los cuervos negros apoyan la hipótesis, los cuervos no negros la refutan, y los no cuervos son irrelevantes. Aún así, esta modesta consideración entraña otros problemas. Supongamos que aplicamos el mismo tipo de consideración a la hipótesis un tanto exótica de que todas las cosas no negras no son cuervos. Los no negros no cuervos (flores blancas, por ejemplo) la apoyan, los cuervos no negros la refutan, y los objetos son irrelevantes. El problema surge cuando observamos que esta hipótesis equivale a la hipótesis original del cuervo; decir que todas las cosas no negras son no cuervos es sólo un modo poco usual de decir que todos los cuervos son negros. Entonces ¿cualquier evidencia que apoye una hipótesis apoya la otra? Esto nos deja, sin embargo, con la conclusión bastante extraña de que las flores blancas proporcionan la evidencia de que todos los cuervos son negros. Esta paradoja del cuervo parece un truco lógico, pero ha resultado muy difícil de resolver.
Explicación
Un reciente trabajo sobre el problema de los métodos de descripción inferencial en la ciencia ha tratado de evitar la debilidad del modelo hipotético- deductivo yendo más allá de las relaciones lógicas para responder a la conexión de la evidencia con la teoría. Algunas consideraciones intentan describir cómo la plausibilidad de teorías e hipótesis puede variar conforme se va avanzando en las comprobaciones, y han enlazado esta idea con un cálculo formal de probabilidades. Otras apelan al contenido específico de las hipótesis sometidas a comprobación, en especial las afirmaciones causales que hacen muchas de ellas. En el siglo XIX, John Stuart Mill dio cuenta de las inferencias desde los efectos a las causas que puede ser extendida para aportar un modelo de inferencia científica. Uno de los procedimientos por el que se ha intentado esa expansión ha sido recurriendo al concepto de explicación. La idea básica del modelo de inducción para la mejor explicación es que los científicos infieren desde la evidencia válida a la hipótesis que, de ser correcta, proporcionaría la mejor explicación de esa evidencia.
Si la inferencia para la mejor explicación debe de ser algo más que un eslogan, sin embargo, se requiere alguna consideración independiente de explicación científica. El punto de partida para la mayoría del trabajo filosófico contemporáneo sobre la naturaleza de la explicación científica es el modelo deductivo-nomológico, según el cual una explicación científica es una deducción de una descripción del fenómeno para ser explicada desde un conjunto de premisas que incluye, por lo menos, una ley de la naturaleza. Así, se podría explicar por qué sube el mercurio en un termómetro señalando el ascenso de la subida en la temperatura a partir de una ley que relaciona la temperatura y el volumen de los metales. El tema aquí es saber qué hace que algo sea una ley de la naturaleza, otro de los tópicos centrales de la filosofía de la ciencia. No todas las generalizaciones verdaderas son leyes de la naturaleza. Por ejemplo, la afirmación de que todas las esferas de oro tienen un diámetro de menos de diez millas es una verdad presumible pero no es una ley. Las genuinas leyes de la naturaleza parecen tener un tipo de necesidad de la que carece la afirmación sobre las esferas de oro. Describen no sólo cómo funcionan las cosas en realidad sino cómo, de algún modo, deben funcionar. Sin embargo, está lejos de ser evidente cómo tendría que articularse esta noción de necesidad.
Otra dificultad para el modelo deductivo-nomológico de explicación es que, al igual que el modelo hipotético-deductivo de comprobación, con el cual mantiene una notable similitud estructural, este modelo también es demasiado permisivo. Por ejemplo, el periodo (la duración de una oscilación) de un péndulo determinado puede deducirse de la ley que se refiere al periodo y recorrido de los péndulos en general, junto con el recorrido de ese péndulo determinado. El recorrido del péndulo es considerado de modo habitual como explicativo del periodo. Sin embargo, la deducción puede llevarse a cabo en el sentido opuesto: es posible calcular el recorrido de un péndulo si se conoce su periodo. Pero el periodo no está considerado por lo común como explicativo del recorrido del péndulo. De este modo, mientras que la deducción funciona en ambos sentidos, se considera que la explicación va sólo en un único sentido. Dificultades de esta índole han llevado a algunos filósofos a desarrollar procesos causales de explicación, según los cuales explicamos los acontecimientos aportando información sobre sus procesos causales. Este enfoque es atractivo, pero pide un análisis de causalidad, un proyecto que se enfrenta a muchas de las mismas dificultades que tenía analizar las leyes de la naturaleza. Además, se necesita decir más sobre qué causas de un acontecimiento lo explican. El Big Bang es presumiblemente parte de la historia causal de cada acontecimiento, pero no aporta una explicación adecuada para la mayoría de ellos. Una vez más, hay un problema de permisividad excesiva.
Realismo e instrumentalismo
Uno de los objetivos de la ciencia es salvar los fenómenos, construir teorías que supongan una descripción correcta de los aspectos observables del mundo. De particular importancia es la capacidad para predecir lo que es observable pero todavía no es observado, ya que una predicción precisa hace factible la aplicación de la ciencia a la tecnología. Lo que resulta más controvertido es si la ciencia debe también aspirar a la verdad sobre aquello que no es observable, sólo por comprender el mundo, incluso sin un propósito práctico. Aquellos que pretenden que la ciencia debería, y que así lo hace, ocuparse de revelar la estructura oculta del mundo son conocidos como realistas. Para éstos, las teorías tratan de describir esa estructura. Por oposición, aquellos que dicen que la labor de la ciencia es sólo salvar los fenómenos observables son conocidos como instrumentalistas, ya que para ellos las teorías no son descripciones del mundo invisible sino instrumentos para las predicciones sobre el mundo observable. La disputa entre realistas e instrumentalistas ha sido un tema constante en la historia de la filosofía de la ciencia.
Los científicos realistas no afirman que todo en la ciencia actual es correcto pero, como era de esperar, afirman que las mejores teorías actuales son poco más o menos verdaderas, que la mayoría de las entidades a las que se refieren existen en realidad, y que en la historia de la ciencia las últimas teorías en un campo concreto han estado por lo común más próximas a la verdad que las teorías que sustituían. Para los realistas, el progreso científico consiste sobre todo en generar descripciones cada vez más amplias y exactas de un mundo en su mayor parte invisible.
Algunos instrumentalistas niegan que las teorías puedan describir aspectos no observables del mundo sobre la base de que no se pueden llenar de significado las descripciones de lo que no puede ser observado. Según esta idea, las teorías de alto nivel son ingenios de cálculo sin significado literal: no son más descripciones del mundo que lo que son los circuitos de una calculadora electrónica. Otros instrumentalistas han afirmado que las teorías son descripciones, pero sólo del mundo observable. Hablar de partículas atómicas y campos gravitatorios sólo es en realidad una taquigrafía de descripciones de interpretaciones punteras y un movimiento observable. La versión contemporánea más influyente del instrumentalismo, conocida como empirismo constructivo, adopta una tercera vía. El significado de las teorías tiene que ser creído literalmente. Si una teoría parece contar una historia sobre partículas invisibles, entonces esa es la historia que se cuenta. Los científicos, sin embargo, nunca tienen derecho o necesidad de creer que esas historias son verdad. Todo lo más que puede o necesita ser conocido es que los efectos observables de una teoría —pasada, presente y futura— son verdaderos. La verdad del resto de la teoría es cómo pueda ser: toda la cuestión es que la teoría cuenta una historia que produce sólo predicciones verdaderas acerca de lo que, en principio, pudiera ser observado.
El debate entre realistas e instrumentalistas ha generado argumentos por parte de ambas escuelas. Algunos realistas han montado un razonamiento de no milagro. Realistas e instrumentalistas están de acuerdo en que nuestras mejores teorías en las ciencias físicas han tenido un notable éxito de predicción. El realista mantiene que este éxito sería un milagro si las teorías no fueran por lo menos verdaderas por aproximación. Desde un punto de vista lógico es posible que una historia falsa en su totalidad sobre entidades y procesos no observables pudiera suponer todas esas predicciones verdaderas, pero creer esto es bastante improbable y, por lo tanto, irracional. Planteado el supuesto de que a una persona se le da un mapa muy detallado, cuyo contenido describe con gran detalle el bosque en el que se encuentra, incluso muchos desfiladeros y picos de montañas inaccesibles. Examina el mapa contrastando los datos en diferentes lugares y, en cada caso, lo que ve es justo como lo pinta el mapa. Queda la posibilidad de que el mapa sea incorrecto por completo en las zonas que no ha examinado, pero esto no resulta verosímil. El realista mantiene que la situación es análoga para toda teoría científica que haya sido bien comprobada.
Los instrumentalistas han hecho numerosas objeciones al razonamiento del 'no milagro'. Algunos han afirmado que incurre en la petición de principio, tanto como el argumento considerado con anterioridad, de que la deducción funcionará en el futuro porque ha funcionado en el pasado. Inferir del éxito observado de una teoría científica la verdad de sus afirmaciones sobre los aspectos no observables del mundo es utilizar en concreto el modo de deducción cuya legitimidad niegan los instrumentalistas. Otra objeción es que la verdad de la ciencia actual no es en realidad la mejor explicación de su éxito de observación. Según esta objeción, Popper estaba en lo cierto, al menos, cuando afirmó que la ciencia evoluciona a través de la supresión de las teorías que han fracasado en la prueba de la predicción. No es de extrañar que se piense, por lo tanto, que las teorías que ahora se aceptan han tenido éxito en cuanto a la predicción: si no lo hubieran tenido, ahora no las aceptaríamos. Así, la hipótesis que mantiene que nuestras teorías son ciertas no necesita explicar su éxito de predicción. Por último, algunos instrumentalistas recurren a lo que se conoce como la indeterminación de la teoría por los datos. No importa el grado de validez de la evidencia, sabemos que hay en principio innumerables teorías, incompatibles entre sí pero todas compatibles con esa evidencia. Como mucho, una de esas teorías puede ser verdadera. Tal vez si la objeción resulta válida, es poco probable que la teoría elegida como eficaz sea la verdadera. Desde este punto de vista, lo que sería milagroso no es que las teorías de éxito a las que llegan los científicos sean falsas, sino que sean verdaderas.
Una de los razonamientos recientes más populares de los instrumentalistas es la 'inducción pesimista'. Desde el punto de vista de la ciencia actual, casi todas las teorías complejas con más de cincuenta años pueden ser entendidas como falsas. Esto se oculta a menudo en la historia de la ciencia que presentan los libros de texto de ciencia elementales, pero, por ejemplo, desde el punto de vista de la física contemporánea, Kepler se equivocaba al afirmar que los planetas se mueven en elipses, y Newton al sostener que la masa de un objeto es independiente de su velocidad. Pero si todas las teorías pasadas han sido halladas incorrectas, entonces la única deducción razonable es que todas, o casi todas, las teorías actuales serán consideradas erróneas de aquí a otro medio siglo. En contraste con esta discontinuidad en la historia de las teorías, según el instrumentalismo se ha producido un crecimiento constante y sobre todo acumulativo en el alcance y precisión de sus predicciones observables. Cada vez han llegado a ser mejores salvando los fenómenos, su único cometido apropiado.
Se han planteado varias respuestas a la inducción pesimista. La mayoría de los realistas han aceptado tanto la premisa de que las teorías del pasado han sido falsas y la conclusión de que las teorías actuales serán quizá falsas también. Sin embargo, han insistido en que todo esto es compatible con la afirmación central realista de que las teorías tienden a mejorar las descripciones del mundo respecto a aquéllas a las que reemplazan. Algunos realistas también han acusado a los instrumentalistas de exagerar el grado de discontinuidad en la historia de la ciencia. Se puede cuestionar también la validez de una deducción desde el grado de falsedad pretérito al actual. De acuerdo con los realistas, las teorías actuales han sustituido a sus predecesoras porque ofrecen un mejor tratamiento de la evidencia cada vez más amplio y preciso; por eso está poco claro por qué la debilidad de las viejas teorías debería ir en contra de las que las sucedan.
Objetividad y relativismo
Aunque realistas e instrumentalistas discrepan sobre la capacidad de la ciencia para describir el mundo invisible, casi todos coinciden en que la ciencia es objetiva, porque descansa sobre evidencias objetivas. Aunque algunos resultados experimentales son inevitablemente erróneos, la historia de la evidencia es en gran parte acumulativa, en contraste con la historia de las teorías de alto nivel. En resumen, los científicos sustituyen las teorías pero aumentan los datos. Sin embargo, esta idea de la objetividad y autonomía de la evidencia observacional de las teorías científicas ha sido criticada, sobre todo en los últimos 30 años.
La objetividad de la evidencia ha sido rechazada partiendo de la premisa de que la evidencia científica está, de manera inevitable, contaminada por las teorías científicas. No es sólo que los científicos tiendan a ver lo que quieren ver, sino que la observación científica es sólo posible en el contexto de presuposiciones teóricas concretas. La observación es "teoría cargada". En una versión extrema de esta idea, las teorías no pueden ser probadas, ya que la evidencia siempre presupondrá la misma teoría que se supone tiene que probar. Versiones más moderadas permiten alguna noción de la prueba empírica, pero siguen introduciendo discontinuidades históricas en la evidencia para compararla con las discontinuidades a nivel teórico. Si todavía es posible hacer algún juicio del progreso científico, no puede ser en términos de acumulación de conocimiento, ya se trate de un enfoque teórico o desde el punto de vista de la observación.
Si la naturaleza de la evidencia cambia conforme cambian las teorías científicas, y la evidencia es nuestro único acceso a los hechos empíricos, entonces quizá los hechos también cambien. Este es el relativismo en la ciencia, cuyo representante reciente más influyente es Thomas Kuhn. Al igual que el gran filósofo alemán del siglo XVIII Immanuel Kant, Kuhn mantiene que el mundo que la ciencia investiga debe ser un mundo hasta cierto punto constituido por las ideas de aquellos que lo estudian. Esta noción de la constitución humana del mundo no es fácil de captar. No ocurre lo mismo que en la visión idealista clásica que explica que los objetos físicos concretos sólo son en realidad ideas reales o posibles, implicando que algo es considerado como objeto físico o como un objeto de cierto tipo, por ejemplo una estrella o un planeta, sólo en la medida en la que la gente así los categoriza. Para Kant, la contribución que parte de la idea y lleva a la estructura del mundo es sustancial e inmutable. Consiste en categorías muy generales tales como espacio, tiempo y causalidad. Para Kuhn, la contribución es asimismo sustancial, pero también muy variable, ya que la naturaleza de la contribución viene determinada por las teorías y prácticas concretas de una disciplina científica en un momento determinado. Cuando esas teorías y prácticas cambian, por ejemplo, en la transición desde la mecánica newtoniana a las teorías de Einstein, también cambia la estructura del mundo sobre la que tratan este conjunto de teorías. La imagen de los científicos descubriendo más y más sobre una realidad idea independiente aparece aquí rechazada por completo.
Aunque radical desde el plano metafísico, el concepto de ciencia de Kuhn es conservador desde una perspectiva epistemológica. Para él, las causas del cambio científico son, casi de forma exclusiva, intelectuales y pertenecen a una reducida comunidad de científicos especialistas. Hay, sin embargo, otras opciones actuales de relativismo sobre la ciencia que rechazan esta perspectiva de carácter interno, e insisten en que las principales causas del cambio científico incluyen factores sociales, políticos y culturales que van mucho más allá de los confines del laboratorio. Ya que no hay razón para creer que estos factores variables conducen al descubrimiento de la verdad, esta idea social constructivista de la ciencia es quizás casi más hostil al realismo científico que lo es la posición kuhniana.
Los realistas científicos no han eludido estos desafíos. Algunos han acusado a los relativistas de adoptar lo que viene a ser una posición de autocontradicciónSi, como se afirma, no hay nada que sea verdad, esta afirmación tampoco puede ser entonces verdadera. Los realistas han cuestionado también la filosofía del lenguaje latente detrás de la afirmación de Kuhn de que las sucesivas teorías científicas se refieren a diferentes entidades y fenómenos, manteniendo que el constructivismo social ha exagerado la influencia a largo plazo de los factores no cognitivos sobre la evolución de la ciencia. Pero el debate de si la ciencia es un proceso de descubrimiento o una invención es tan viejo como la historia de la ciencia y la filosofía, y no hay soluciones claras a la vista. Aquí, como en otras partes, los filósofos han tenido mucho más éxito en poner de manifiesto las dificultades que en resolverlas. Por suerte, una valoración de cómo la práctica científica resiste una explicación puede iluminar por sí misma la naturaleza de la ciencia.







La lógica posicional

La lógica es el procedimiento  sistemático y fundado que nos permite diferenciar un razonamiento correcto, o válido de otro incorrecto, o inválido. Es, por lo mismo,  estudio de la deducción lógica o de la inferencia lógica. Puede también definirse como el estudio sobre la consistencia de los enunciados  que afirmamos, o como la ciencia de las reglas que nos permiten usar correctamente la expresión «por consiguiente», o un equivalente de la misma. Los siguientes párrafos son ejemplos de argumentaciones o razonamientos. Puesto que son razonamientos válidos o correctos, los enunciados de que se compone cada uno de ellos son consistentes entre sí, el empleo de la expresión «por tanto» o equivalente es legítima, y, en cada caso, la conclusión ha sido deducida válidamente de las premisas. Para que haya un razonamiento, no es preciso que la disposición de los enunciados sea la formal, la  propia de la lógica; un razonamiento puede tener también una disposición informal, como en el ejemplo siguiente:  también aquí la conclusión se deduce correctamente -válidamente- de sus premisas. No es éste el caso, pese a las apariencias, de los siguientes  razonamientos: La corrección -o validez- de un argumento no depende de que los enunciados de que se compone sean, de hecho, verdaderos o falsos, sino de si, entre premisas y conclusión, existe consecuencia lógica. La lógica estudia la consecuencia lógica desde un punto de vista formal, esto es, no atendiendo a la verdad de hecho de los enunciados, sino a la forma como se argumenta: si  la forma de argumentar es correcta, entonces, si las premisas son verdaderas la conclusión será también verdadera. Hallar las formas correctas de argumentar supone hallar el criterio por el que decidimos que un razonamiento es válido o inválido.
           


1. Verdad y validez

Una cosa es que la conclusión sea verdadera y otra que su  deducción sea válida. Una cosa es la verdad de las premisas y la conclusión, y otra la validez  del razonamiento. Aquélla depende, según la teoría de la correspondencia, de si lo que el enunciado dice es, en realidad, lo mismo que sucede: ésta, de si la conclusión es una consecuencia lógica de las premisas. La validez depende de la forma como se argumenta y no del contenido de verdad o falsedad  sus enunciados. Un enunciado es consecuencia lógica de las premisas si es imposible que las premisas sean verdaderas y la conclusión falsa. Esto depende únicamente de la forma del razonamiento y no de ninguna verdad de hecho. Decimos, pues, que un razonamiento es válido -formalmente correcto- cuando su forma es tal que siempre que las premisas son verdaderas la conclusión también lo es, o bien cuando es imposible que las premisas sean verdaderas y la conclusión falsa. Y siempre y en todo caso, la validez de un razonamiento no depende de la verdad o falsedad de las premisas. Si el razonamiento es válido y, además, sus premisas son verdaderas, el razonamiento es también materialmente correcto, esto es, un razonamiento sólido. En los razonamientos válidos, las premisas implican la conclusión. Y entonces, las premisas y la conclusión son necesariamente consistentes. También puede decirse que un razonamiento es válido si su contraejemplo hace de las premisas y de la conclusión un conjunto de enunciados inconsistente. En conclusión, sólo si razonamos correctamente, estamos legitimados a utilizar la expresión «por tanto», «por consiguiente» y otras equivalentes.


2. Lenguaje formal

Para estudiar la forma de los razonamientos, la lógica recurre a lenguajes formales. El mismo Aristóteles, fundador de la lógica, estudió la forma de los silogismos mediante esquemas de enunciados. Así, recurre a expresiones formales como: «Todo A es B», «B pertenece a todo A», o «B se predica de todo A». Con el desarrollo de la lógica moderna, llamada «lógica simbólica» o «lógica matemática» se han creado formalismos lógicos, lenguajes formales o cálculos lógicos. Un lenguaje formal permite representar mediante fórmulas casi cualquier expresión de este mismo lenguaje, y amplía considerablemente la capacidad de formalizar -limitada a unos cuantos tipos de enunciados, preferentemente los categóricos- de la lógica clásica aristotélica, también llamada lógica tradicional. Un lenguaje formal se identifica con el conjunto de fórmulas que pueden formarse siguiendo sus reglas: el conjunto de fórmulas bien formadas de un lenguaje. Todo lenguaje formal supone: 1) un conjunto de símbolos, que constituyen el alfabeto del lenguaje, y 2) un conjunto de reglas de formación de fórmulas. Si se añade una tercera  condición, a saber,3) un conjunto de reglas de transformación de unas fórmulas en otras, se obtiene, además, un cálculo lógico o un procedimiento de deducción. Un lenguaje formal o un cálculo lógico permite, en consecuencia, decidir: 1) si un símbolo pertenece al lenguaje; 2) si una fórmula determinada es una expresión bien formada del lenguaje; y 3) si una secuencia sintáctica de fórmulas constituye una demostración o una deducción.En todo caso, un cálculo o un procedimiento de deducción pone de manifiesto que todo razonamiento válido equivale a una expresión lógica  que siempre es verdadera. Una tal expresión es una «verdad lógica» o una «verdad formal». La lógica de enunciados y la lógica de predicados son dos lenguajes lógicos formales. La distinción entre uno y otro se basa en la distinta capacidad expresiva del lenguaje. Los símbolos (alfabeto) del lenguaje de lógica de enunciados se refieren, básicamente, a enunciados y a conexiones entre enunciados, dejando intacta su estructura interna, mientras que los símbolos (alfabeto) de la lógica de predicados penetran en el interior de los enunciados y se refieren a los términos de que se componen los enunciados. 1.«Cuando sale el sol, amanece»es una expresión de lógica de enunciados, si de ella nos interesa la relación, o conexión, que se establece entre las dos oraciones simples, también llamadas atómicas: p = sale el sol q = amanece la relación «cuando» se simboliza mediante la conectiva «...si.... entonces»:En cambio, el conjunto de enunciados 2. «Todo el que cree en la igualdad humana cree en la  democracia Los estudiantes creen en la igualdad humana Luego los estudiantes creen en la  democracia»no quedaría suficientemente representado si escribiéramos:(p y q) luego rPor esto, la lógica de predicados, analiza la estructura interna de estos enunciados, y permite escribir (según la lógica aristotélica):Todo A es B Todo C es  A________________Luego todo C es B O bien según la lógica simbólica: El sistema de la  lógica elemental, o de primer orden, se divide en lógica de enunciados y lógica de predicados.


3. Lógica de enunciados

Un enunciado es toda oración gramatical declarativa, esto es, aquella que es capaz de ser verdadera o falsa, dado que todo enunciado  expresa -o significa- una proposición. El principio de bivalencia, uno de los fundamentos de la lógica clásica, establece además que todo enunciado, o proposición, ha de ser verdadero o falso,  y  no ambas cosas  a la vez. Los enunciados pueden ser simples (atómicos) o compuestos (moleculares) y se simbolizan mediante letras de enunciado (p, q, r, s,... minúsculas).Los enunciados se combinan entre sí mediante conectivas lógicas, también  llamadas  operadores (porque operan entre enunciados). Los principales  son:  y en símbolos:   El lenguaje formal de la lógica de enunciados consta de:Los símbolos y las fórmulas constituyen la sintaxis del lenguaje formal y, con esta definición recursiva de fórmula, es posible decidir qué expresión pertenece a este lenguaje y expresar una cantidad indefinida de enunciados.Pero un lenguaje formalizado no consta sólo de una sintaxis (a saber, símbolos y reglas de formación de fórmulas), sino también de una semántica: ha de poder ser interpretado (ha de referirse a algo). Interpretar un lenguaje es atribuir significado a sus constantes (símbolos) y a sus variables (letras de enunciados).  El significado que se le atribuye es el valor de verdad. A todo enunciado descriptivo de carácter empírico, le asignamos  un valor de verdad concreto -sabemos si es verdadero o falso- según su correspondencia con los hechos que describe; a un enunciado lógico, cuya referencia a los hechos se ignora metodológicamente, sólo podemos asignarle valores de verdad posibles: Así, a  toda letra de  enunciado se le asigna dos valores posibles: V y F (1, 0)Una asignación de valores de verdad es una aplicación de un conjunto de letras de enunciado (argumento: p, q, r, s...) a un conjunto de valores de verdad (valor: V, F). Aplicamos a cada letra de enunciado un solo  valor de verdad V (1) o de falsedad F (0).En esta figura, a p se le asigna el valor F, a q el valor V, a r el valor V y a s el valor F. Una asignación es una interpretación. Una interpretación es, por consiguiente, una aplicación o una función que asigna a una fórmula, o expresión de lógica de enunciados, sus posibles valores de verdad. El número de asignaciones para cada Para  una letra de enunciado, p =  1, p =0.Para dos letras de enunciado, p = 1 y q = 1p = 1 y q = 0p = 0 y q = 1p = 0 y q = 0Para tres letras de enunciado, p = 1, q = 1 y r = 1p = 1, q = 1 y r = 0p = 1, q = 0 y r = 1p = 1, q = 0 y r = 0p = 0, q = 1 y r = 1p = 0, q = 1 y r = 0p = 0, q = 0 y r = 1p = 0, q = 0 y r = 0A partir de la noción de asignación de valores es posible definir cada una de las conectivas como operadores veritativo-funcionales, porque, aplicadas a un enunciado  simple (cuando se trata de  ¬) o a dos enunciados simples (en los demás casos), dan un valor de verdad del enunciado compuesto que es función del valor de los enunciados que lo componen. Por esta razón las conectivas se definen de la siguiente manera:


Conectivas:

«Una conectiva veritativo-funcional es una constante lógica que  expresa una manera determinada de interpretar el valor de verdad de un enunciado compuesto a partir del valor de verdad de los componentes.»La lógica define cada  una de estas maneras  mediante una tabla de verdad propia de cada conectiva. Puesto que no interesa el valor de verdad según el contenido material de los enunciados, se utilizan letras de enunciados (letras minúsculas; p, q, r,...) en lugar de enunciados  (y para hablar de las letras de enunciados se utilizan también letras, esta vez, mayúsculas: P, Q, R,..., llamadas variables metalingüísticas).


Negación: ¬P

«No P es falso cuando P es verdadero y es verdadero cuando P es falso»




«P y Q es verdadero sólo cuando sus enunciados componentes, P y Q son ambos verdaderos»

«P o Q es verdadero cuando  es verdadero P o cuando es verdadero Q, o lo son ambos a la vez»

«Si P, entonces Q es verdadero siempre, menos cuando el antecedente, P, sea verdadero y el  consecuente, Q, falso»

«P si y sólo si Q es verdadero cuando P y Q son ambos verdaderos o ambos falsos; en los demás casos, es falso».

Otras conectivas posibles
El  número de funciones de verdad posibles (N) responde a la fórmula combinatoria                    N =, donde n  es el número de letras de enunciado y m los valores de verdad (V y F) y m,  como número base, las dos combinaciones posibles del valor global de V y F para cada asignación.   Para una expresión lógica de dos letras de enunciado,                    N =por lo que, para  dos enunciados, p y q, las funciones de verdad posibles son, por tanto,  16. Cada una de las columnas de la siguiente tabla son sus definiciones.         Cada una de estas columnas describe  una posible función de verdad, según la fórmula mencionada;  las columnas 9-16 son la negación de su simétrica en las columnas 8-1, por este orden.   Las columnas 2, 5, 7, y 8  son  las usuales funciones de verdad definidas (disyunción, condicional, bicondicional y conjunción), y la 11 y la 13, la negación (de p y de q, respectivamente).columna 1: tautología                                 columna 2: disyunción inclusiva                                                                                        columna 3: condicional material inversa:      columna 4: afirmación de q                                                                           (q) columna 5: condicional material:                 columna 6: afirmación de p                                                                           (p)columna 7: bicondicional:                            columna 8: conjunción:                                                                           columna 9: incompatibilidad (p/q):                columna 10: disyunción exclusiva:«dos enunciados son incompatibles                                  siempre, menos cuando ambos son falsos».columna 11: negación de p (¬p)                   columna 12: negación de p y                                                                                         afirmación de q:                                                                                     columna 13: negación de q (¬q)                   columna 14: negación de q y                                                                                           afirmación de p:                                                                                      columna 15: negación conexa                      columna 16: contradicción                     : «la negación conexa entre  dos enunciados  sólo es  verdadera si ambos enunciados son falsos».(Repetimos el mismo gráfico para poder visualizar adecuadamente la explicación de cada columna)

Las tablas de verdad son un algoritmo que permite demostrar si  una expresión de lógica de enunciados es o no  una fórmula  lógicamente verdadera. La noción de función de verdad, que permite crear tablas de todos los posibles valores de verdad de una fórmula, permite también analizar el  de cualquier expresión de lógica de enunciados. Por ello, una tabla de verdad es también un método o procedimiento semántico  que: 1) Permite decidir si una fórmula es una tautología, una contradicción, o una expresión consistente, y si dos o más fórmulas son lógicamente equivalentes. Y en conexión con esto, en el supuesto de que todo razonamiento formalmente válido es una tautología -una implicación siempre verdadera-2)  permite decidir si una secuencia de enunciados, o de fórmulas de lógica de enunciados, constituye un razonamiento válido.

Fórmulas tautológicas

Una fórmula es una tautología si es verdadera para cualquier asignación de valores de verdad. En una tabla de verdad, la tautología da siempre valores verdaderos. Fórmulas contradictorias Una fórmula es contradictoria si es falsa para cualquier asignación de valores  de verdad. Fórmulas consistentes Una fórmula es consistente si hay por lo menos una asignación que la hace verdadera; si no es, por tanto, ni tautológica ni contradictoria. Fórmulas equivalentes Dos fórmulas son equivalentes si las asignaciones de valores que hacen verdadera a una de ellas hacen también verdadera a la otra, y viceversa, y si las asignaciones de valores que hacen falsa a una de ellas hacen también falsa a la otra, y viceversa.  Las tablas de dos fórmulas equivalentes son iguales. Las tablas permiten, además, comprobar la consecuencia lógica  y la independencia lógica entre enunciados o fórmulas.

Razonamientos válidos

Con las nociones introducidas hasta aquí, se dispone ya  de un lenguaje formalizado, con el que es posible expresar cualquier razonamiento de lógica de enunciados; basta indicar los  métodos que  deciden cuáles son las secuencias de fórmulas que representan un razonamiento válido. Sobre estas secuencias de fórmulas, es posible hacer afirmaciones de tipo semántico, basadas en la atribución de la noción de verdad, o bien de tipo sintáctico, basadas en la noción  de equivalencia. Las primeras son propias de los métodos semánticos, y las segundas de los sintácticos.


Métodos semánticos

1)      Un razonamiento es válido si, siempre que sus premisas son verdaderas, la conclusión también es verdadera, y no es posible que, con premisas verdaderas, la conclusión pueda ser falsa.2) Un razonamiento válido es, en consecuencia, una implicación formalmente válida. Por lo mismo, un razonamiento es válido, si el secuente semántico que forman sus premisas y su conclusión constituye una tautología.
2)      Un secuente  es una afirmación (hecha en metalenguaje) sobre un conjunto de fórmulas lógicas (las premisas y la conclusión), utilizando el signo de «consecuencia lógica». Por ejemplo, el conjunto, esquema el razonamiento siguiente:«Si Ana sueña, duerme Ana está soñando, por tanto duerme»del que se afirma que si los dos primeros enunciados son verdaderos, lo es también  el tercero: que éste se sigue lógicamente de los otros dos..

Uso de tablas

Dos son las maneras como podemos utilizar las tablas para demostrar la validez de un razonamiento.


Consecuencia lógica:

Una fórmula, llamada conclusión,  es una consecuencia lógica de otra u otras, llamadas premisas, si toda interpretación -o asignación de valores de verdad- que hace verdaderas a las premisas hace también verdadera a la conclusión: Para la asignación de valores de la primera línea, se cumple que «la interpretación que hace verdadero al conjunto de premisas hace también verdadera a la conclusión». Por tanto, q es consecuencia lógica del conjunto dado de fórmulas, como expresa el secuente semántico: Implicación tautológica: En el supuesto de que sea un razonamiento válido, el ejemplo mencionado puede escribirse como una implicación :La tabla de verdad muestra que este condicional es una tautología. Es una implicación verdadera en todo caso, por lo que se cumple que «siempre que las premisas son verdaderas la conclusión también lo es, y  en ningún caso sucede que las premisas sean verdaderas y la conclusión falsa». Por consiguiente, tanto por (1) como por (2), se muestra que el razonamiento es válido. En resumen, en un razonamiento válido hay consecuencia lógica  entre premisas y conclusión: O bien, si B es válido sin premisas:    Lo cual significa simplemente que B es una  tautología, o una fórmula universalmente válida


2) Árboles lógicos

Este método llamado también cálculo de los árboles lógicos iniciado por E.W. Beth (1955), es un método semántico que permite verificar si una fórmula es una tautología o si una fórmula es una consecuencia lógica de sus premisas, recurriendo al concepto de consistencia. Permite demostrar tanto Se demuestra que  es una contradicción, o que el conjunto  constituido por las premisas y la negación de la conclusión, que constituye su contraejemplo, es inconsistente. Véase la descripción del método en cálculo de los árboles lógicos. La noción lógica fundamental en los métodos de tablas es la de no contradicción o consistencia entre premisas y conclusión. En los métodos sintácticos la noción lógica fundamental es la de equivalencia entre fórmulas que preservan, o transmiten, la verdad.


Métodos sintácticos

Los métodos sintácticos consisten en derivar o deducir una conclusión, a partir de unos principios o unas premisas dadas. Un razonamiento es, así, válido si la conclusión se ha derivado o deducido  correctamente de sus principios o premisas mediante reglas; la validez se entiende ahora como deducibilidad. En los métodos semánticos, razonamiento válido es aquel que no admite la posibilidad de que sus premisas sean verdaderas y la conclusión falsa; en los métodos sintácticos es aquel cuya conclusión se ha demostrado, derivado o deducido correctamente de principios o premisas (hipótesis). Lo cual se expresa mediante el siguiente secuente sintáctico:  que se lee «B es demostrable a partir de principios o premisas», o «B es  respecto  de otra u otras. Si el conjunto de premisas es el conjunto vacío, entonces y, en este caso, B es un teorema  de la lógica.  El teorema de la deducción (Herbrand, 1930) establece que de modo que, si B se deduce formalmente a partir de un conjunto de premisas, entonces la implicación que forman estas premisas y la conclusión B constituyen una  fórmula universalmente válida.


a) Métodos axiomáticos

El método más clásico de deducción lógica. Un sistema formal axiomático se compone de  una lista de axiomas y de una o más reglas de inferencia. Cualquier fórmula  (B) de esta secuencia es un teorema  sintáctico si se demuestra a partir de los axiomas. Una demostración o derivación axiomática de B es:

1) una secuencia finita de fórmulas

2) cuya última fórmula es B;

3) donde cada fórmula es o un axioma o una consecuencia de un axioma derivada mediante reglas de inferencia.

A los sistemas axiomáticos, cuya característica general es, por un lado,  la simplicidad  -tienen, por lo común, pocas reglas de inferencia- y, por el otro, la laboriosidad de las demostraciones siguen, como alternativa, a partir de 1934, los sistemas de deducción natural, ideados por G. Gentzen.


b) Deducción natural

Uno de los sistemas formales de deducción, empleados en lógica, ideado independientemente por Gerhard Gentzen (1909-1945), lógico y matemático alemán discípulo de Hilbert, y Stanislaw Jaskowsky, en 1934. Consiste en un procedimiento de derivación para probar la validez de una conclusión, partiendo de premisas iniciales y deduciendo nuevas premisas intermedias mediante reglas de inferencia, cuyo uso se justifica. No recurre a axiomas y el procedimiento demostrativo en conjunto tiene cierta semejanza con la manera «natural» de deducir.Utiliza reglas de inferencia para cada una de las conectivas y, como presupuesto fundamental, admite suponer como premisa cualquier  enunciado, que puede introducirse condicionadamente en cualquier momento de la demostración (suposición que eventualmente debe cancelarse recurriendo a la demostración condicional o a la prueba por reducción al  absurdo;  como ejemplo de sistema de deducción natural utilizamos las ocho reglas  básicas  de Gentzen  y algunas de las derivadas.

La lógica de enunciados es un sistema formal que posee unos procedimientos de decisión efectivos para probar que una fórmula cualquiera es también una consecuencia lógica. Por consiguiente constituye un sistema formal decidible, ya que estos procedimientos son eficaces para decidir, semánticamente, si una fórmula es una tautología (tablas de verdad) o si es, sintácticamente, un teorema del cálculo (sistema axiomático y deducción natural y  árboles lógicos) .Como sistema formal, la lógica de enunciados posee también las propiedades de consistencia y completud. Posee la propiedad de consistencia, dado que para cualquier fórmula válida, A, de lógica de enunciados, es verdad que Lo cual afirma su consistencia interna y excluye que sea posible demostrar A y ¬A, contradictorias entre sí. O lo que es lo mismo, afirma que todos sus teoremas son válidos. Es, además, un sistema formal completo, dado que cualquier forma válida puede ser demostrada dentro de la lógica de enunciados. Y, así, para cualquier fórmula, A,  es verdad que Ésta es la propiedad recíproca, o conversa, de la anterior, de modo que, al afirmarse ambas,  las dos propiedades anteriores dan lugar a la  siguiente equivalencia:   El significado de esta equivalencia es doble:  1) Todas las secuencias que son deducciones formales son también formalmente verdaderas y, a la inversa,  todas las secuencias formalmente verdaderas son  susceptibles de una demostración formal; y 2) toda deducción es una verdad lógica y todas las verdades lógicas son demostrables;  o todo teorema es una tautología, y toda tautología es un teorema del sistema. La lógica de enunciados es, por tanto, un sistema formal consistente, completo  y decidible.


La lógica de predicados estudia la consecuencia lógica entre enunciados, cuando para decidirla no basta considerar la estructura global de los enunciados, sino que es necesario conocer su estructura interna. Es, en consecuencia,  el estudio de las inferencias válidas que se basan en la estructura interna de los enunciados. David Hilbert y Wilhelm Ackermann fueron los primeros en describir de un modo sistemático (1928) esta parte de la lógica, propiamente llamada lógica de predicados de primer orden. La lógica de enunciados no puede analizar satisfactoriamente razonamientos como los dos siguientes:

1)  Todos los que cantan son personas sensibles     Raúl canta    _____________________________________  Por tanto Raúl es una persona sensible

2)  Todas las personas sensibles cantan      Raúl canta     ________________________________      Por tanto, Raúl es una persona sensible

En  lógica de enunciados estos dos razonamientos (valido el primero, inválido el segundo) tendrían el mismo esquema de argumento:   lo cual no permitiría decidir cuál de los dos es el válido. La lógica de predicados, al analizar la estructura interna de la frase y al introducir operadores internos, permite diferenciar entre objetos o individuos,  propiedades y relaciones. En «Todo hombre razona», podemos diferenciar el objeto o individuo (el sujeto gramatical) del que se habla, y que aquí se precisa que se trata de «todos los hombres», y la propiedad que atribuimos a este objeto o individuo, que aquí es el predicado «_______ razona». Hay predicados que se refieren a más de un objeto (como, por ejemplo, en «_______es el padre de_______» o «_______ está  entre_______ y _______», que son relaciones).Una cosa es ser «objeto» o «referente» y otra distinta ser «predicado»;  los términos que designan objetos son designadores, y los que designan predicados, relatores. Asimismo, al  objeto o referente que puede ocupar el espacio vacío «_______ ... » se le llama argumento; a un argumento se le atribuyen predicados, que son propiedades (predicados absolutos) o relaciones (predicados relativos). Inversamente, a las propiedades corresponden argumentos que son nombres, pronombres u objetos y, a las relaciones, parejas de nombres, o más, según sean los predicados diádicos, triádicos, n-ádicos (o binarios, ternarios, n-arios, etc.), esto es, según los predicados tengan dos o más lugares  vacíos.



La lógica de predicados es un lenguaje formal cuyos enunciados son fórmulas con las que simboliza y analiza la estructura interna de las frases. Este lenguaje artificial está formado por símbolos y fórmulas:
1.         Símbolos
2.         Fórmulas                    

Ejemplos :
1. Enunciados cuantificados
2. Enunciados cuantificados con más de una variable. También la lógica de predicados goza de las propiedades de consistencia y completud (en sentido débil: cuando toda fórmula válida es también un teorema), de modo que todo enunciado o fórmula deducible es una verdad lógica, y toda verdad lógica es deducible o derivable; pero la lógica de predicados, globalmente considerada, no es decidible. A diferencia de la lógica de enunciados, no dispone de un procedimiento mecánico, de un algoritmo universal, como son las tablas de verdad, para decidir si una fórmula cualquiera es universalmente válida. La única manera de probar, para partes determinadas de esta lógica,  que una fórmula es universalmente válida, o que  un argumento es válido, es por medio de una deducción. Entonces se cumple: Y esto prueba la consistencia de la lógica de predicados: todo lo que es deducible es lógicamente verdadero, o que sólo las fórmulas universalmente válidas son teoremas. Y de ahí, la importancia de los métodos deductivos, o cálculos, en lógica de predicados

Sistemas formales de deducción

Aparte de los  sistemas axiomáticos, los sistemas deductivos más utilizados son los árboles lógicos (el mismo, sustancialmente, que en el cálculo de enunciados) y la deducción natural.

1) Árboles lógicos

Permiten decidir la validez de algunas argumentaciones de lógica de predicados, dado que, si bien no pueden demostrar la consistencia de todas las fórmulas con cuantificadores, pueden demostrar la  inconsistencia. Sus reglas son las mismas del cálculo de enunciados más cuatro  propias de los cuantificadores .

2) Deducción natural

Utiliza las mismas reglas del cálculo de lógica de enunciados (ver gráfico interactivo) más cuatro reglas básicas propias del cálculo de predicados, y algunas derivadas (ver reglas).

Hay una lógica que trata de las clases y de los miembros de las clases. Se identifica con la lógica de predicados monádicos, y en ella se distinguen dos partes: el  álgebra de clases y  la lógica de clases propiamente dicha. El álgebra de clases puede considerarse como una interpretación extensional de la lógica de enunciados, donde las letras no significan enunciados, sino clases, esto es, el conjunto de objetos o individuos que tienen la misma propiedad: una clase es la extensión de un predicado. La expresión «x es pianista» se interpreta como «x es miembro de la clase de pianistas» = Px.  Todo objeto que  tenga la propiedad de «ser pianista» pertenece a esta clase.

Hay otra lógica cuantificacional  que trata del cálculo o la deducción mediante cuantores o cuantificadores, esto es, símbolos formales con que se caracteriza a los enunciados universales (generalizador) o particulares (particularizador). También se llama lógica de predicados, o de términos.


Un poco de historia

El desarrollo de la lógica occidental a través del tiempo, desde su nacimiento con Aristóteles hasta la aparición y florecimiento de la lógica moderna se la considera fruto de la convergencia de cuatro líneas de pensamiento marcadas por: la lógica antigua, la idea de un lenguaje universal para la ciencia, el desarrollo del álgebra y la aritmética en el s. XIX, o desarrollo de la matemática de la lógica, y las investigaciones de la lógica de la matemática.

1. La lógica antigua Su creador es Aristóteles con el Organon, o conjunto de obras lógicas: Categorías, que trata de los términos, De la interpretación, donde estudia el enunciado, Analíticos primeros, donde estudia el silogismo y Analíticos segundos, que trata de la demostración, Tópicos y Elencos sofísticos, donde trata del silogismo dialéctico y sofístico, respectivamente. Se afirma, no obstante, que Parménides, los sofistas y el mismo Platón, pueden considerarse por lo menos antecedentes y predecesores de algunas teorías lógicas. Aristóteles es, en todo caso, el primero en desarrollar un sistema completo de lógica, que se conoce con el nombre de silogística. Es ésta una lógica de predicados basada en los términos y en la predicación, o manera como se atribuye al sujeto el predicado, en la frase o proposición, cuya estructura se indica con la expresión «S es P». El tratamiento de los silogismos es formal y Aristóteles recurre también al uso de variables. Estudios de historia de la lógica han demostrado que el sistema lógico aristotélico es consistente y decidible. Su obra fue continuada y perfeccionada por Teofrasto de Eresos, segundo director del Liceo, sobre todo en lo que respecta a la lógica modal y a la lógica de enunciados o proposiciones, sólo implícitamente supuesta por Aristóteles. Quienes desarrollaron sistemáticamente la lógica de enunciados fueron, sin embargo, los megáricos (entre 400 y 275 a.C.) y los estoicos (entre 300 y 200 a.C.). Con ellos aparece el recurso a diversas formas de argumentación, y no a la sola implicación, y analizan el valor de las conectivas como funciones veritativas. A los megáricos, entre quienes destacan Diodoro Cronos y Filón de Megara, se debe la formulación de las primeras paradojas lógicas, atribuidas principalmente a Eubúlides, el estudio de los enunciados modales e intensas discusiones sobre el sentido del condicional. Diodoro sostiene que un enunciado condicional es verdadero si y sólo si no puede enunciarse, en ningún momento, como compuesto de un antecedente verdadero y un consecuente falso. Mientras que Filón sostiene que un enunciado condicional debe interpretarse verdadero en todo caso, menos cuando el antecedente es verdadero y el consecuente falso. Así, para el primero, «si es de noche, entonces es de día», nunca es un enunciado verdadero, mientras que, para el segundo, este enunciado es verdadero dicho durante el día. A esta interpretación filoniana del condicional se le ha llamado modernamente implicación material, según la cual «Si P, entonces Q» equivale a «O no P o Q».Entre los estoicos, Crisipo de Soli, llamado segundo fundador de la Estoa, destaca como uno de los principales lógicos griegos. La lógica estoica es una lógica de enunciados ya en desarrollo, basada en el principio de bivalencia (a ellos se debe la definición de enunciado - que llaman axioma- como lo que puede ser verdadero o falso), que recurre a la negación, conjunción, disyunción (exclusiva, y quizá la inclusiva) y el condicional filoniano, como conectivas definidas a modo de funciones veritativas; con ellas construían los principios lógicos. Las discusiones sobre el condicional, unidas a las de los megáricos, fueron tantas y tan intensas que Calímaco (s. II a.C.) afirmaba que «hasta los cuervos graznan por los tejados acerca de este problema».El famoso médico Galeno (entre los años 129 y 199 d.C.), que escribe una Introducción a la dialéctica, así como comentarios a la lógica de Aristóteles, Teofrasto y los estoicos, mezcla la lógica aristotélica con la estoica. Se le atribuye, asimismo, la introducción de la cuarta figura del silogismo (algunos la atribuyen al filósofo judío Albalag, del s. XIII). Tras el período estoico, durante la época de los «comentadores», iniciada por la labor recopiladora de Andrónico de Rodas, florecen comentarios sobre las obras lógicas de Aristóteles. Así, Alejandro de Afrodisia (s. III), Porfirio (s. III), Simplicio (s. VI) y Filopón (s. VI). Entre los romanos del mismo período, especial relevancia tiene Boecio, a través del cual penetran, por primera vez, en el occidente latino algunas de las obras lógicas de Aristóteles: traduce Categorías y De la interpretación, sobre las que también redacta comentarios; escribe Sobre el silogismo categórico y Sobre el silogismo hipotético, y comenta además la Eisagogé, del neoplatónico Porfirio y Topica, de Cicerón. De los comentarios de Boecio a la Eisagogé, procede en buena medida el llamado problema de los universales, de tanta importancia filosófica especialmente durante la Edad Media . La lógica medieval, -entendiendo por tal la que se desarrolla en el occidente cristiano durante la Edad Media, del s. XI al XV-, es heredera de la lógica griega y, en especial, de la silogística aristotélica. A.N. Prior destaca cuatro aportaciones nuevas y fundamentales de la Escolástica: (1) una teoría general de la referencia (suppositio terminorum), (2) una teoría general de la implicación (consequentia), (3) un desarrollo de la lógica de las modalidades, y (4) el tratamiento de paradojas y problemas lógicos del lenguaje.  El primer tratado medieval de lógica es la Dialéctica, de Alcuino, obra escrita en forma de diálogo para ser utilizada en el trivium, base de la enseñanza elemental medieval, que Alcuino restaura a iniciativa del emperador Carlomagno. Durante un largo período de tiempo, la lógica queda relegada a estas nociones elementales de las artes liberales. La aparición de los «dialécticos» del s. XI y las primeras discusiones sobre la naturaleza de los universales renuevan el interés por la lógica y su relación con la gramática. El primer lógico medieval importante es Pedro Abelardo. Sus obras de mayor interés son la Dialéctica, en la que reelabora la herencia lógica dejada por Boecio, y Sic et Non, en la que introduce uno de los procedimientos más característicos del estudio de las cuestiones en la Escolástica. A partir de la segunda mitad del s. XII, se conocen ya en occidente el resto de obras lógicas de Aristóteles; la lógica basada en estas nuevas obras se conoció con el nombre de ars nova, o «nueva lógica», la usada ya en las universidades del s. XIII. La doble dirección en el estudio de la lógica que existió en éstas -por un lado, el estudio más formal de la lógica desarrollado con cierta libertad e independencia por las facultades de artes, basado en las primeras obras conocidas del Organon aristotélico, más Analíticos primeros, Tópicos y Elencos sofísticos, y por otra, un estudio de la lógica en consonancia con la metafísica aristotélica y Analíticos segundos, llevado a cabo por las facultades de teología, más fieles al pensamiento aristotélico- dio origen a la lógica antiqua, de las facultades teológicas, y a la lógica moderna, de las facultades de artes. El autor más representativo de esta lógica moderna es Pedro Hispano; sus obras de lógica, Summulae Logicales, fueron los manuales usuales durante los siglos XIV y XV, con más de 150 ediciones.A finales del s. XIII, la lógica moderna se instala en Oxford, donde consigue sus momentos más álgidos con Roberto Kilwarby, Juan Duns Escoto (aunque los tratados lógicos se atribuyen a un Pseudo-Escoto) y, sobre todo, Guillermo de Occam. La doctrina sobre las consecuencias, desarrollada de un modo especial durante esta época, representa una de las influencias de la lógica estoica sobre la medieval. «Consecuencia» es, para los medievales, un condicional o un argumento con la partícula «ergo» uniendo enunciados. Se discute intensamente cuáles son las condiciones de verdad tanto de los condicionales como de estos argumentos y se escriben al respecto tratados titulados De Consequentiis. Tales tratados, aunque no eran independientes de la lógica aristotélica, recogen algunas de las leyes fundamentales de la lógica de enunciados. Se añade la teoría de la suppositio, o de la significación de un mismo término según el lugar que ocupa en un enunciado. Estas teorías guardan relación con la teoría moderna de la cuantificación.


2. La lengua perfecta
La búsqueda de una lengua perfecta -un lenguaje completo, simple y universal- tiene en el Ars Magna [El gran arte], de Ramon Llull, sus orígenes medievales. Según Llull, con 54 ideas básicas podría tejerse un gran arte para expresar cualquier verdad necesaria al hombre. Descartes y Leibniz son -sin olvidar, no obstante, a George Dalgarno, con Ars Signorum (1616), Atanasio Kircher, con su Novum hoc inventum quo omnia mundi idiomata ad unum reducuntur [Nuevo invento con el que se reducen a uno todos los idiomas del mundo] (1660), que incluye un diccionario de 1620 palabras, y John Wilkins, con Essay towards a Real Character and a Philosophical Language [Ensayo a favor de un alfabeto real y un lenguaje filosófico] (1668)- los principales valedores de una characteristica universalis, de un lenguaje universal de proposiciones verdaderas que pudiera ser usado para razonar científicamente. Descartes busca, desde los días en que conoce a I. Beeckman, y superando a Llull, una «ciencia totalmente nueva, que permita resolver en principio todas las cuestiones», o un lenguaje universal vinculado a la verdadera filosofía, que elimine la posibilidad de equivocarse razonando. Leibniz -el único, por otra parte, de sus contemporáneos que no cree, como sí hará poco después Kant, que la lógica sea un saber ya totalmente establecido y acabado, y a quien se atribuye la paternidad de la expresión «lógica matemática»- es el defensor por antonomasia de una mathesis universalis, o lenguaje universal matemático, que, desde su primera Dissertatio de arte combinatoria, escrita a los veinte años, en 1666, hasta las más tardías Elementa characteristicae generalis e Historia et commendatio linguae characteristicae y aun su proyecto de una enciclopedia universal, no cesa de identificar el «razonamiento y el cálculo», con el apoyo de signos o de conceptos primeros . Además de estos autores que pueden considerarse «precursores» de la lógica matemática, ha de recordarse la Lógica de Port-Royal: Logique, ou l´Art de penser [Lógica, o arte de pensar] (1622), de Antoine Arnauld y Pierre Nicole, y que mantiene una perspectiva antiescolástica y antiaristotélica, defendida anteriormente sobre todo por Petrus Ramus, pero también por Bacon, Descartes, Pascal y otros. Su orientación psicologista será decisiva a todo lo largo de los siglos XVII a XIX. Bernard Bolzano es uno de los pocos, y el principal, que no sigue esta orientación psicologista. El hecho de contemplar la lógica como teoría de la ciencia hace que se interese, no por los aspectos psicológicos, sino por el estudio formal de los términos y enunciados.


3) La matemática de la lógica
Pese a que el empirismo clásico inglés, Locke en especial, se olvida por completo de la lógica, son ingleses quienes, a mediados del s. XIX, comienzan a desarrollar en la práctica las ideas de Leibniz sobre un cálculo lógico universal. Este período inicial, protagonizado por los británicos W. Hamilton (1788-1856), G. Boole, sobre todo, A. de Morgan, W.S. Jevons y el alemán E. Schroeder (1841-1912), representa el desarrollo de la matemática de la lógica -o álgebra de la lógica-, poderosamente influida por los cambios experimentados en el álgebra y la geometría entre 1825 y 1900, iniciados con la distinción entre álgebra aritmética y álgebra simbólica, hecha por George Peacock (1791-1858) en Tratado de álgebra (1842-1845). Boole concibe la lógica como un álgebra de clases; se basa en el supuesto de que la lógica es una parte de la matemática, y el paralelismo que se establece entre ambas le permite entender los enunciados como ecuaciones. En Las leyes del pensamiento (1854) formula las leyes del análisis matemático de la lógica. Las investigaciones posteriores en la matemática de la lógica son desarrollos de sus teorías, corrección de sus errores, mejora y simplificación de los métodos de expresión, o ampliación de sus perspectivas, hasta su axiomatización. Así, por ejemplo, William Stanley Jevons, constructor por otra parte de una máquina de razonar, sugiere que la suma o unión de clases (x+y) sea entendida como la clase de las cosas que son x, y o x e y a un tiempo («o» inclusiva), noción también admitida por A. de Morgan, y reemplaza la expresión booleana del complemento de clase, «1-a», por la actual, . Ch.S. Peirce, que llama a su sistema Álgebra General de la Lógica, es uno de los autores que amplían la obra empezada por Boole, elaborando algebraicamente la lógica de las relaciones; de ahí surge la idea de que la lógica de enunciados es la base de la lógica en general.


4. La lógica matemática
La lógica moderna nace propiamente con la publicación, en 1879, por Gottlob Frege, de Conceptografía, ensayo que, junto con su obra de mayor importancia, Fundamentos de la geometría (1884), pasó inadvertida hasta que la obra de Russell, Principios de las matemáticas (1903), llamó la atención sobre su contenido. La pequeña obra de 1879 representa la formalización completa de la lógica elemental, o el primer sistema completo de lógica elemental, y muestra que la aritmética se identifica con la lógica, o que es una parte de la lógica, en aparente contraposición con la postura de Boole. La teoría de los cuantificadores ha sido considerada como la novedad de mayor relieve introducida por Frege y una de las aportaciones lógicas de mayor importancia del s. XIX; aplicada a los enunciados categóricos representa un punto claro de unión entre la lógica aristotélica de términos y la lógica de enunciados iniciada por los estoicos. Los Principia Mathematica (1910-1913), de A.N. Whitehead y B. Russell, culminan la comprensión de la lógica como sistema deductivo iniciada por la obra de Frege, cuyo desarrollo, en diversas vertientes, persiste en la actualidad como teoría lógica admitida ya como clásica. Después de los Principia Mathematica, las investigaciones lógicas se han ocupado preferentemente del perfeccionamiento de la formulación axiomática del sistema de lógica que proponen y del estudio de las propiedades formales de los cálculos lógicos: consistencia, completud y decidibilidad. El rechazo del punto de vista de Frege, reafirmado en principio por Whitehead y Russell, de que la matemática es lógica, lleva a la aparición de filosofías de la matemática rivales: la filosofía formalista de la matemática de Hilbert y la concepción intuicionista de Luitzen Egbertus Jan Brouwer. Reacción también a la obra lógica de Whitehead y Russell son las lógicas no clásicas polivalentes, no fundadas ya en el principio de bivalencia: Lukasiewicz y Post son los primeros en desarrollar lógicas trivalentes. Arend Heyting (1898-1980) formula una lógica intuicionista, que aplicando los principios matemáticos de Brouwer abandona el principio del tercero excluso.

Ciencia y arte:

2 ámbitos están vinculados con el arte, la geometría para representar las formas naturales y geométricas y la anatomía para dibujar el cuerpo:
https://www.blogger.com/profile/03720592188547282148 (geometría gráfica)
http://dibujos-de-anatomia.blogspot.com.es/





----------------------------------------------------------------------------------



http://www.taringa.net/post/info/19357693/Las-respuestas-mas-estupidas-y-creativas-dentro-de-un-examen.html



----------------------------------------------------------------------------------



¿Puede una máquina pintar como Picasso?


La inteligencia artificial ha logrado realizar poemas, pinturas o composiciones musicales, pero ¿en qué lugar queda la creatividad, la originalidad artística y las emociones?


¿Puede escribir poemas una máquina? La pregunta se amplía más allá de los versos, al arte en general. ¿Existen, o pueden existir, las máquinas artistas? Lo cierto es que ya conocemos multitud de experiencias en las que las máquinas escriben poemas, componen música o pintan cuadros. La pregunta es si lo que hacen es verdaderamente creativo. Y eso depende de lo que entendamos por creatividad o de qué tipo de creatividad hablemos. El ámbito dedicado a desarrollar estos ingenios y resolver estas preguntas tiene un nombre: creatividad computacional.
"En efecto, todo depende de cómo definamos la creatividad", explica el filósofo de la ciencia y la tecnología David Casacuberta, profesor de la Universidad Autónoma de Barcelona. "La creatividad puede ser tomada como un proceso social, caso en el cual ni las personas ni las máquinas individuales serían creativas. O también podemos pensar que creatividad es tomar dos cosas que ya existen para crear una nueva: en este caso las máquinas son muy creativas".









Para enfrentar este problema, la filósofa Margaret A. Boden, distinguió entre tres tipos de creatividad: la combinacional, que combina ideas existentes, la exploratoria, que genera ideas nuevas explorando espacios conceptuales, y la transformacional. Esta última viene a romper anteriores estructuras y crear espacios nuevos. Digamos que los artistas más rompedores con su tiempo, diferenciándose del resto y dando arriesgados saltos hacia delante (por ejemplo Picasso con el cubismo o Schönberg con la música dodecafónica), mostraron este tipo de creatividad.
Las máquinas pueden ser muy buenas en el primer caso e incluso en el segundo, pero se requiere, por el momento, una mente humana para desarrollar una creatividad de tipo transformacional. “También hay que tener en cuenta que, aunque las máquinas no puedan romper reglas estéticas y crear otras nuevas, tampoco la mayor parte de los seres humanos pueden hacerlo, solo algunos muy señalados”, apunta Ramon López de Mántaras, director del Instituto de Investigación de Inteligencia Artificial (IIIA) del Consejo Superior de Investigaciones Científicas (CSIC).

Máquinas poetas

La poesía es uno de los campos en los que la creatividad computacional más ha escarbado. La idea de que una máquina escriba poemas no es nueva: ya la tuvo el filósofo Ramón Llull en el siglo XIII o Alan Turing, padre de la computación, cuando la informática solo balbuceaba, a mediados del XX. En Los viajes de Gulliver, publicado en 1726, Jonathan Swift habla de una máquina de creación literaria. Hoy estas máquinas, dentro de ciertos límites, existen.
WASP (Wishful Automatic Spanish Poet) es un poeta automático desarrollado por Pablo Gervás, profesor de la Facultad de Informática de la Universidad Complutense: “Para desarrollar un ingenio de este tipo tenemos que entender cómo la mente lee, porque es la destinataria del poema, pero no necesariamente entender cómo la mente escribe”. Dentro de su tarea entra la investigación de modelos cognitivos, la memoria, en fin, el pensamiento. A WASP se le dan instrucciones: la métrica, la rima; se le ordena inspirarse en la obra de un poeta. Y WASP obedece y escribe. Como los humanos, con el tiempo la máquina va aprendiendo nuevas formas de hacer poesía, y distingue mejor si lo que ha producido es buena poesía o ripios y frases banales. Bajo influencia de Lorca, WASP tejió estos versos:
Yunques ahumados
sus muslos se me escapaban como
peces sorprendidos
la mitad llenos de alas.
No es el único proyecto de Gervás: PropperWryter se dedicaba a escribir cuentos siguiendo las estructuras que Vladimir Propp encontró en los cuentos rusos. “Se trataba de desmontar los cuentos para luego montarlos otra vez de forma diferente”, dice. También generaron el argumento del musical Beyond the Fence, el primero generado por ordenador. “Esto fue similar solo que utilizando los argumentos propios de los musicales, como son las historias de amor, que no aparecen en los cuentos”, desarrolla el ingeniero.

Tuiteros: poetas involuntarios

Hace unas semanas se extendió por las redes sociales una herramienta llamada Poetweet, que genera diferentes tipos de poemas (sonetos, por ejemplo) utilizando los tuits escritos a lo largo del tiempo por un usuario. El escritor Sergio del Molino, autor de La España vacía (Turner), uno de los libros más exitosos del año pasado, nos cede algunos versos, que no sabemos si son de su autoría o, por el contrario, el autor es el propio programa Poetweet.
Mi correo es público, me dices.
Remangada, luciendo la pantorrilla.
Yo no había nacido entonces. Maravilla.
Va la España Vacía. Tiene Narices.
Esta estrofa, que no sería tan descabellado pensar que ha sido escrita por un ser humano (es mejor que muchas estrofas escritas por seres de carne y hueso), y que cumple las reglas de métrica y rima, es un ejemplo de esa creatividad combinacional. “Una máquina puede obtener con mucha rapidez gran cantidad de combinaciones, hasta llegar a cifras astronómicas, por eso tenemos que programar heurísticas, es decir, límites que restrinjan el espacio de posibilidades”, dice López de Mántaras, “de otra manera obtendríamos algo estúpido, aleatorio”.
En la experiencia Poesía Asistida por Computadora (PAC), el artista Eugenio Tiselli trató de crear una especie de ayudante tecnológico para esos poetas bloqueados a los que parecen haberles abandonado las musas. Esta tecnología propone material al poeta humano que lo va modelando y dando sentido y término. Al final resulta una coautoría de la obra, hombre-máquina. Aún así, para evitar que PAC fuera solo una musa, el poeta Vicente Luis Mora se dedicó a buscar dentro de la generación de la máquina unos versos que pudieran atribuírsele a Góngora. Y los encontró:
a una hora en que la fruta llena
azul celeste método congrega
Dos endecasílabos que lo cierto es que dan el pego.






Así pintó una máquina el cuadro 'El próximo rembrandt'.

Robots pintores

Rembrandt vivió en el s. XVII en los Países Bajos, donde fue uno de los maestros del barroco. En los años 60 del siglo pasado el Proyecto Rembrandt comenzó a recoger una base datos sobre las obras del artista para evitar falsificaciones. Décadas después, el año pasado, sucedió el milagro: Rembrandt volvió a la vida y pintó un cuadro. El próximo Rembrandt es un retrato de un hombre de la época que podría decirse que ha realizado el propio maestro a través de una máquina: un software creado por la Universidad Delft y Microsoft recreó la imagen basándose en los datos recogidos sobre su obra. Una vez más la máquina crea a base de recombinar datos anteriores. Eso sí, el resultado es intachable: la única diferencia con un Rembrandt auténtico es que no lo es. Si esto es arte o no es ya una cuestión para los críticos, filósofos y, sobre todo, el mercado. La innovación y la digitalización están consiguiendo cotas inimaginables. Pero, sin duda, el talento creador original no está a su alcance: ni los sentimientos ni las emociones.
¿Y qué hay de los estados de ánimo, de las emociones, y otros asuntos propiamente humanos? Hay programas que los tienen, o pretenden tenerlos. The Painting Fool, desarrollado desde hace diez años por el matemático de la Universidad de Londres Simon Colton, trata de discernir si las máquinas pueden tener (o simular) características como la intuición o la fantasía. Introduciendo al programa datos sobre la actualidad (noticias, estados de Facebook o Twitter) se consigue que sus pinturas muestren diferentes estilos y estados de ánimo. Digamos que se le inspira: si el mundo va bien resultan imágenes optimistas, de lo contrario aparece el drama. “Mi objetivo es ser tomado en serio como artista creativo algún día”, dice el propio programa en su página web.
Y los robots también han llegado a la pintura, como a tantas otras facetas de la vida. Es el caso de E-David, que desarrolla actualmente en la Universidad de Constanza, y que no tiene pinta de artista: se trata de un brazo mecánico parecido a los que se usan en las cadenas de montaje de coches. La diferencia es que este trabaja con cinco pinceles (que va limpiando) y una paleta de 24 colores. Lo interesante es que sabe elegir la siguiente pincelada de forma independiente, fijándose en lo que ya ha pintado, recibiendo feedback de su propia actividad artística, en vez de seguir un patrón preestablecido. En ese sentido tiene cierta autonomía y los científicos afirman que también servirá para entender cómo los artistas de carne y hueso piensan una obra de arte. Pero, una vez más, E-David tiene que basarse en cuadros anteriores para crear los suyos propios. Por lo pronto no le va mal: este mismo mes expuso en la galería Halle 14, en Leipzig.






El robot e-David, de la alemana Universidad de Constanza, aprende de sí mismo mientras pinta.

Música, cibermaestro

La música es ritmo, armonía, matemáticas, así que es un género querido por los aparatos tecnológicos. Uno de los compositores no humanos más avanzados es el malagueño Iamus, autor de piezas musicales que han llegado a ser interpretadas por la Orquesta Sinfónica de Londres. El programa, creado por el Grupo de Investigación de Inteligencia Computacional de la Universidad de Málaga, está capacitado para crear música clásica a partir de algunos inputs básicos de información. Su disco Iamus (2012), fue la primera obra musical creada enteramente por un ordenador sin intervención humana. Lo único que sabe Iamus son las reglas propias de la música (como las que se aprenden en un conservatorio), los instrumentos que tiene que incluir y la duración de la obra: ni siquiera tiene que inspirarse en otros compositores. También le han enseñado que un acorde de piano no puede tener diez notas, porque la mano humana solo tiene cinco dedos. Así, y siguiendo procesos inspirados en la evolución biológica, Iamus construye sus temas desde un núcleo musical que se va volviendo más complejo. Luego el humano solo tiene que elegir entre sus composiciones. La gran pega es que, según sus creadores, es más difícil que la música de este ingenio llegue a emocionar.
A veces las personas y las imágenes colaboran de un modo más estrecho en la creación de una obra musical. Por ejemplo, la Fundación Telefónica auspició el pasado verano el proyecto en el que se sensorizó a la campeona Teresa Perales, ganadora de 26 medallas de natación paralímpica: el programa creado por la productora Zissou compuso música recogiendo 84.750 datos como velocidad, ritmo cardíaco, frecuencia de la brazada, etc. Una composición al alimón entre la deportista y el ordenador. También con coches: un experimento de la empresa Volkswagen, en colaboración con el grupo de música electrónica Underworld, creó una aplicación que generaba música en tiempo real teniendo en cuenta factores como la velocidad y la posición del automóvil. Y, por supuesto, las máquina son capaces de componer música inspirada en otra música: es el caso de FlowMachines, de Sony, que se alimenta con más de 13.000 canciones de varios estilos (sobre todo jazz, pop, canciones de musicales y brasileñas). En este caso el usuario le pide al programa una canción de un cierto estilo, por ejemplo como el de los Beatles o Duke Ellington.






Concierto de la Sinfónica de Málaga interpretando 'Adsum' compuesto por el 'software' de Iamus.

¿Puede resultar la música generada por máquinas algo fría, sin alma? Si se da el problema tiene solución. El equipo de López de Mántaras en el CSIC ha creado un sistema que añade expresividad a las interpretaciones musicales: acentúa notas, varía su duración, añada un crescendo o un vibratto, entre otros recursos para darle emoción a la partitura, como haría un ser humano sensible.

Los críticos de arte pueden ser robots

Otro problema que plantea la creatividad computacional es la evaluación de la propia obra: “Una máquina puede componer una sinfonía, o 100.0000, dentro de su creatividad exploratoria, pero no sabe distinguir si una de esas sinfonías es buena o es un turrón”, explica Gervás. Una máquina puede, por ejemplo, saber si una obra es original, comparándola con una nutrida base de datos de obras anteriores, sin embargo otros elementos de juicio crítico se le escapan. Sobre todo ahora que en el arte contemporáneo es más importante el discurso que se hace sobre la obra que el propio objeto: probablemente una máquina no consideraría el urinario de Marcel Duchamp como una obra de arte. En el valor de una obra influyen multitud de variables, muchas de ellas sociales, económicas, aleatorias: la fama del artista, su cotización, el estar en el momento adecuado en el sitio adecuado, etc.; variables que, en principio, se escaparían fácilmente del entendimiento de la máquina (aunque también se podrían programar).
De todas formas, igual que hay esfuerzo para crear máquinas artistas, también los hay para crear máquinas críticas de arte. Los ingenieros Ahmed Elgammal y Babak Saleh, de la Universidad de Rutgers, han creado un programa que valora obras teniendo en cuenta gran cantidad de parámetros (la técnica, el contenido, el color…) utilizando una base de datos de 62.000 obras de todos los períodos de la Historia del Arte: así puede sopesar la originalidad o la transgresión, y también la posible trascendencia que tendrá en el arte futuro. La máquina alabó las creaciones de Munch, Lichtenstein y Monet, pero no tanto las de Ingres o Rodin: para una máquina no son tan interesantes. “El algoritmo consiguió destacar las obras que consideraba creativas, en el sentido de originales e influyentes, y lo hizo sin ningún conocimiento de arte o historia de arte, solo mediante análisis visual y considerando las fechas”, escriben los autores.

¿Tecnofobia en el arte?

“Hay preocupación en la sociedad, porque no queremos que nos superen las máquinas”, dice Gervás. Pero también opina que no hay de qué preocuparse, y ejemplifica con el caso del ajedrez. “Al principio las máquinas jugaban peor que los humanos, ahora juegan mejor, y hay hasta campeonatos de ajedrez entre máquinas, a los que asisten humanos como público. Pero eso no quita que los humanos sigan jugando: no hay problema”.
“Nosotros llegamos a la conclusión de que las máquinas son capaces de generar poesía y actos creativos, pero lo más importante es el valor que le otorga el lector”, dice el psicólogo Carlos González Tardón, coautor, junto con el poeta Dionisio Cañas, del libro ¿Puede un computador escribir un poema de amor? (Devenir). Según explica el experto cuando una persona sabe que el poema o la obra que está disfrutando está creada por una máquina le resta valor. Se objeta que detrás de la obra no haya una intencionalidad. “Pero hay sonetos hechos por ordenadores que son tan buenos o mejores que los humanos. Lo que pasa es que la creatividad es uno de los últimos resquicios que nos quedan a los humanos frente a las máquinas”, concluye González Tardón.

http://elpais.com/elpais/2017/03/27/talento_digital/1490615561_931227.html

La construcción artificial del retrato de Rembrandt es un rotundo fracaso: las pupilas descentradas, las manchas conexas en degradados, toques lamidos de principiante, no hay veladuras ni transparencias de la piel como hacía el artista, no hay los restregados de Rembrandt ni la pincelada quebrada, etc., en síntesis, un tremendo fracaso.


La informática nunca podrá crear un rostro con unas manchas como lo hace Sorolla, Velázquez, Frans Hals o Vermeer:http://cort.as/waSt

Lo ha intentado con Photoshop y otros programas pero con resultados decepcionantes






----------------------------------------------------------------------------------------------------

"En la universidad española lo único que funciona bien son excepciones al margen del sistema"


De hecho, para mucha gente cuando entra en la carrera que allí todo pasa a ser abstracción y demostraciones de teoremas es un cambio. A la mayoría le gusta mucho más porque esto es más creativo, entiendes todo… 

Yo creo que en el instituto se deberían intentar explicar las matemáticas de forma que los niños entiendan cosas, no que las calculen. La matemática es entender y lo que se hace en las escuelas es calcular.

Lógica es algo que en el instituto no lo asocias a matemáticas sino a filosofía. O ejemplos mucho más visuales y geométricos, que tampoco ves apenas en la ESO o en el Bachillerato.


No hay comentarios:

Publicar un comentario