+ All Categories
Home > Documents > La ciencia

La ciencia

Date post: 16-Nov-2014
Category:
Upload: jair-huaman-cabrera
View: 1,642 times
Download: 0 times
Share this document with a friend
Description:
 
94
Ciencia ¿Qué es la ciencia? Publicado el 29 abril, 2012 Esta es una pregunta de esas que alguna vez nos hemos hecho todos en algún instante. Y es… que es ciencia es un concepto que nos acompaña todos los días en todas partes. Por ejemplo, cuando vemos las gotas de lluvia caer durante una tormenta o cuando observamos a un fruto caer de un árbol, realmente lo que estamos haciendo es ser testigos de un proceso científico. Según la Real Academia de la Lengua Española la ciencia es “un conjunto de conocimientos obtenidos mediante la observación y el razonamiento, sistemáticamente estructurados y de los que se deducen principios y leyes generales“. En otras palabras, es la suma total del saber que posee un individuo gracias a sus experiencias adquiridas. Además, dicho conocimiento se da de manera cronológica. La ciencia, al igual que muchas otras cosas es un aspecto que corresponde únicamente al ser humano, dado que los animales no son entes racionales. En cambio, el hombre al ser pensante siente la necesidad de conocer su entorno y manipular los eventos que ocurren dentro de éste. La ciencia a grosso modo cuenta con las siguientes características: Emplea distintos procedimientos e instrumentos para obtener y organizar la información obtenida sobre un acontecimiento en particular. Los datos deben ser obtenidos dejando de lado el pensamiento subjetivo, para que de ese modo otras personas que tengan acceso a esa información puedan formarse su propia opinión. Establece parámetros confiables que permitan la comprobación de los resultados obtenidos.
Transcript
Page 1: La ciencia

Ciencia

¿Qué es la ciencia?Publicado el 29 abril, 2012

Esta es una pregunta de esas que alguna vez nos hemos hecho todos en algún instante. Y

es… que es ciencia es un concepto que nos acompaña todos los días en todas partes.

Por ejemplo, cuando vemos las gotas de lluvia caer durante una tormenta o cuando observamos a

un fruto caer de un árbol, realmente lo que estamos haciendo es ser testigos de un proceso

científico.

Según la Real Academia de la Lengua Española la ciencia es “un conjunto de conocimientos

obtenidos mediante la observación y el razonamiento, sistemáticamente estructurados y de los que

se deducen principios y leyes generales“.

En otras palabras, es la suma total del saber que posee un individuo gracias a sus experiencias

adquiridas. Además, dicho conocimiento se da de manera cronológica.

La ciencia, al igual que muchas otras cosas es un aspecto que corresponde únicamente al ser

humano, dado que los animales no son entes racionales.

En cambio, el hombre al ser pensante siente la necesidad de conocer su entorno y manipular los

eventos que ocurren dentro de éste.

La ciencia a grosso modo cuenta con las siguientes características:

Emplea distintos procedimientos e instrumentos para obtener y organizar la información

obtenida sobre un acontecimiento en particular. Los datos deben ser obtenidos dejando de

lado el pensamiento subjetivo, para que de ese modo otras personas que tengan acceso a

esa información puedan formarse su propia opinión.

Establece parámetros confiables que permitan la comprobación de los resultados obtenidos.

Homologa los criterios de evaluación, de acuerdo con los de los otros miembros de la

comunidad científica. De esa forma se crea un proceso confiable de estandarización de

resultados.

Trata, en la medida de lo posible, de originar conocimientos nuevos basados en resultados

concretos de acontecimientos que ocurrieron en el pasado. Esto con el fin de prever

fenómenos futuros.

Page 2: La ciencia

Intenta que sus postulados sean puestos a prueba por personas expertas pertenecientes al

área correspondiente.

Trata de difundir las investigaciones científicas en medios especializados o dependientes del

ramo. Como son: centros de estudio, laboratorios, periódicos, revistas, programas de

televisión, sitios de internet etc.

Está al pendiente de que la manera en que se difunde la información sea la correcta.

OBJETIVOS DE LA CIENCIA

Son dos los objetivos centrales de la investigación científica y consisten en:

a).Descubrir respuestas y soluciones a problemas de investigación mediante la aplicación de procedimientos científicos

b).La descripción, explicación, predicción y control de fenómenos: Uno de los objetivos básicos consiste en la identificación de problemas y en descubrir las relaciones entre las variables que permitan describir, explicar, pronosticar y controlar fenómenos, para ello descubre leyes científicas y desarrolla teorías científicas

TIPOS DE CIENCIA

No todas las ciencias son exactamente iguales, de ahí la dificultad de elaborar una definición de ciencia que valga para todas. Los distintos tipos de ciencias se distinguen por el objeto de estudio, el método que emplean, las teorías con que se aproximan a la investigación y los resultados que obtienen.

 Las ciencias formales son aquellas que no pueden comprobarse experimentalmente en la realidad. Trabajan con conceptos abstractos como los números. Las ciencias empíricas sí tienen un correlato real en el mundo. En ellas, el conocimiento proviene de fenómenos observables y capaces de ser evaluados por otros investigadores que trabajen bajo las mismas condiciones. Las ciencias sociales estudian el comportamiento humano y las sociedades. En ellas no es posible utilizar método tan riguroso, los fenómenos son más difusos y el punto de vista cambia bastante. Las ciencias naturales (física, química, biología) estudian fenómenos naturales, incluyendo la vida. Trabajan con el método científico y nos dicen cosas acerca del mundo desde un punto de vista riguroso y ateniéndose a los fenómenos dados. 

Page 3: La ciencia

Las ciencias formales, especialmente las matemáticas, resultan vital para las otras ciencias. De hecho, los grandes avances en las matemáticas generalmente han conducido a avances críticos en ciencias como la física o la biología. Ciertas herramientas matemáticas son indispensables para la formulación de hipótesis, teorías y leyes, tanto para descubrir como para describir cómo funcionan las cosas (ciencias naturales) y cómo es que la gente piensa y actúa (ciencias sociales). Esta definición de ciencia a veces se dice que corresponde a la ciencia pura, para diferenciarla de la ciencia aplicada, que se refiere a la aplicación de la investigación científica ante necesidades humanas específicas.

Biografía ConsultadaBunge, Mario (1994).La Ciencia: su Método y su Filosofía, Ed. Siglo XX, Buenos Aires.2. Resumen de lo leídoCiencia Formal y Ciencia FáticaLa ciencia es la recopilación y desarrollo previa experimentación metodológica (o accidental)del conocimiento. La clasificación de la ciencia más aceptada es la de Ciencias Fácticas yFormales.La palabra fáctica viene del latín factuque significa“hecho”.Las ciencias fácticas se basan enbuscar la coherencia entre los hechos y la representación mental de los mismos. Necesita dela observación y experimentación

Page 4: La ciencia

para poder adecuar sus hipótesis. Tiene racionalidad, quese da con la coherencia (que es necesaria pero insuficiente en el campo de los hechos). Lasciencias fácticas trabajan con objetos reales que ocupan un espacio y un tiempo. Sesubdividen en ciencias naturales y ciencias sociales.Las ciencias Formales abarcan la lógica y la matemática y otros que estén relacionad estosúltimos. Es racional, sistemática y verificable. Su campo de estudio está dado solo en lo idealy está influida por los objetos reales. Trabajan con formas, es decir, con objetos ideales, queson creados por el hombre, que existen en su mente y son obtenidos por abstracción. Lesinteresan las formas y no los contenidos, no les importa lo que se dice sino como se dice.Ambas ciencias están divididas. Mientras los enunciados formales consisten en relacionesentre signos, los enunciados de las ciencias fácticas se refieren a sucesos y procesos. Lasciencias formales se conforman con la lógica para comprobar sus teoremas, las cienciasfácticas recurren a la observación y al experimento. Las ciencias formales demuestran oprueba; las fácticas verifican hipótesis. La demostración es completa y final; la verificaciónes incompleta y temporaria.

Ciencias formales

En las ciencias formales las proposiciones analíticas o contradictorias recogen los

enunciados de las matemáticas y la lógica que en general constituyen las ciencias

formales. El positivismo lógico considera a estas ciencias no empíricas.

Las ciencias formales están divididas de una forma radical, por un lado las ciencias

reales y por otro lado las ciencias empíricas. Las empíricas deben satisfacer

determinados requisitos lógicos en sus inferencias y deben adaptarse a las

formalizaciones derivadas de la lógica matemática.

Las expresiones y formulas de la lógica y de las matemáticas no deben verificarse por

ser analíticas, pero el resto de los enunciados científicos deben ser comprobados en la

realidad o por observación.

La lógica y la matemática son ciencias formales, por ocuparse de inventar entes

formales y establecer relaciones entre ellos. Estos objetos no son cosas ni procesos,

sino formas en las que se puede verter un surtido ilimitado de contenidos, tanto

facticos como empíricos.

Se pueden establecer correspondencias entre estas formas u objetos formales

relacionándolas con objetos o procesos pertenecientes a cualquier nivel de la realidad.

Los teoremas formales solo deben ser probados apoyados en la lógica.

Las ciencias formales no se refieren a nada que se encuentre en la realidad, por eso no

pueden utilizar nuestros contactos con la realidad para convalidar sus formulas.

Estas ciencias estudian conceptos abstractos, además de las leyes lógicas, es decir las

leyes que permiten inferir proposiciones a partir de enunciados verdaderos. Su

Page 5: La ciencia

característica típica es que demuestran o prueban sus enunciados con base en

principios lógicos o matemáticos, pero no los confirman experimentalmente.

De esta forma las ciencias formales no dan información acerca de la naturaleza,

conformándose con ser recursos o instrumentos meramente formales, que el científico

necesariamente tendrá que manejar en la practica de investigaciones, comprobaciones

y verificaciones.

La lógica.

Como ciencia del razonamiento se ha visto modificada en varios aspectos a través de la

historia, hasta tal punto que actualmente se habla de varias lógicas. Estas son,

Las lógicas extendidas: se llaman así porque se consideran extensiones de la lógica

clásica, como en el caso de la lógica modal.

Las lógicas divergentes: llevan este nombre puesto que no están de acuerdo en

algunas tesis sustantivas de la lógica clásica, como en el caso de la lógica trivalente.

La matemática.

Consta de la teoría de conjuntos y las geometrías no euclidianas, instrumentos

matemáticos descubiertos y formulados para auxiliar y entender los nuevos aspectos

del universo que surgen a los ojos de las nuevas teorías físicas.

Bibliografía.

Chávez Calderón, Pedro. Historia de las doctrinas filosóficas

Ciencias formalesLas ciencias formales son las ramas de la ciencia que estudian sistemas formales. Las ciencias formales validan sus teorías con base en proposiciones, definiciones, axiomas y reglas de inferencia, todas ellas son analíticas, a diferencia de las ciencias sociales y las ciencias naturales, que las comprueban de manera empírica, es decir, observando el mundo rea

Ciencia computacional teóricaLas ciencias de la computación teórica (TCS) es una división o un subconjunto de las ciencias de la

computación y lasmatemáticas que se enfoca en aspectos más abstractos o matemáticos de la computación.

Estas divisiones y subconjuntos incluyen análisis de algoritmos y semántica formal de lenguajes de programación.

Técnicamente, además de estos dos, hay cientos de divisiones y subconjuntos. Cada una de las múltiples partes

tienen sus propios líderes personales individuales (de popularidad) y hay muchas asociaciones y grupos sociales

profesionales y publicaciones de distinción.

Page 6: La ciencia

Contenido

  [ocultar] 

1     Ámbito   o 1.1      Historia   

2     Organizaciones   3     Revistas y boletines   4     Conferencias   5     Lectura adicional   6     Referencias   7     Véase también   8     Enlaces externos   

[editar]Ámbito

No es fácil circunscribir las áreas de teoría precisamente el Special Interest Group on Algorithms and Computation

Theory (SIGACT) de la ACM describe a su misión como la promoción de la ciencias de la computación teórica y

nota:1

El campo de la ciencias de la computación teórica es interpretado ampliamente para

incluir algoritmos, estructuras de datos, teoría de la complejidad computacional, computación

distribuida, computación paralela, VLSI, aprendizaje de máquina, biología computacional, geometría

computacional, teoría de la información, criptografía, computación cuántica, teoría computacional de

números y álgebra, semántica de programa y verificación, teoría de autómatas y el estudio de

la aleatoriedad. A menudo el trabajo en este campo es distinguido por su énfasis en la técnica

y rigor matemáticos.

A esta lista, revista Transactions on Computation Theory de la ACM agrega teoría de la codificación, teoría del

aprendizaje computacional y aspectos de ciencias de la computación teórica de áreas tales como bases de

datos, recuperación de información, modelos económicos y redes.2 A pesar de esta amplitud, la "gente de

teoría" en ciencias de la computación se identifica a sí misma como diferente de la "gente de aplicaciones".

Algunos se caracterizan como haciendo la "(más fundamental) 'ciencia' subyacente en el campo de la

computación".3 Otra "gente de teoría aplicada" sugiere que es imposible separar teoría y aplicación. Esto

significa, que la llamada "gente de teoría" usa regularmente science experimental hecha en áreas menos

teóricas como investigación de sistema de software. Esto también significa, que existe una cooperación más

que una competencia mutuamente excluyente entre la teoría y aplicación.

Page 7: La ciencia

Lógica matemática

Teoría de autómatas

Teoría de números Teoría de grafos

Teoría de tiposTeoría de categorías

Geometría computacional

Teoría de computación cuántica

[editar]HistoriaArtículo principal: Historia de las ciencias de la computación.

Mientras que los algoritmos formales han existido durante milenios (en computación todavía se usa

el algoritmo de Euclides para determinar el máximo común divisor de dos números), no fue sino hasta 1936

que Alan Turing, Alonzo Church y Stephen Kleeneformalizaron la definición de un algoritmo en términos de

computación. Mientras que los sistemas binario y lógico de las matemáticas habían existido antes de 1703,

cuando Gottfried Leibniz formalizó la lógica con los valores binarios para verdadero y falso. Mientras que la

inferencia lógica y prueba matemática habían existido en la antigüedad, en 1931 Kurt Gödel demostró con

su teorema de incompletitud que hubieron limitaciones fundamentales sobre qué sentencias, incluso si

verdaderas, podrían probarse.

Estos desarrollos han llevado a los estudios modernos de la lógica y computabilidad, y de hecho al campo de

las ciencias de la computación teórica como un todo. La teoría de la información fue agregada al campo con

una teoría matemática de 1948 sobre la comunicación por Claude Shannon. En la misma década, Donald

Hebb introdujo un modelo matemático de aprendizaje en el cerebro. Con montaje de datos biológicos

soportando esta hipótesis con algunas modificaciones, fueron establecidos los campos de [[red neuronal|redes

neuronales] y procesamiento distribuido paralelo.

Con el desarrollo de la mecánica cuántica al principio del siglo XX llegó el concepto que operaciones

matemáticas pudieran ser realizadas en una función de onda de una partícula. En otras palabras, se podrían

calcular funciones en varios Estados simultáneamente. Esto llevó al concepto de un ordenador cuántico en la

segunda mitad del siglo XX que despegó en la década de 1990 cuando Peter Shor demostró que tales

Page 8: La ciencia

métodos podrían utilizarse para factorizar números grandes en tiempo polinómico, lo que, si se aplican, haría

más modernos sistemas de criptografía de clave pública inútilmente insegura.

Investigación de ciencias de la computación teórica moderna se basa en estos desarrollos básicos, pero

incluye muchos otros problemas matemáticos e interdisciplinarios que han sido planteados.

EstadísticaPara análisis, datos y gráficas sobre Wikipedia, véase Wikipedia:Estadísticas.

La estadística es una ciencia formal que estudia la recolección, análisis e interpretación de datos de una muestra

representativa, ya sea para ayudar en la toma de decisiones o para explicar condiciones regulares o irregulares de

algún fenómeno o estudio aplicado, de ocurrencia en forma aleatoria o condicional. Sin embargo, la estadística es

más que eso, es decir, es el vehículo que permite llevar a cabo el proceso relacionado con la investigación

científica.

Distribución normal

Es transversal a una amplia variedad de disciplinas, desde la física hasta las ciencias sociales, desde las ciencias

de la salud hasta elcontrol de calidad. Se usa para la toma de decisiones en áreas denegocios o

instituciones gubernamentales.

La estadística se divide en dos grandes áreas:

La estadística descriptiva, se dedica a la descripción, visualización y resumen de datos originados a partir de

los fenómenos de estudio. Los datos pueden ser resumidos numérica o gráficamente. Ejemplos básicos

de parámetros estadísticosson: la media y la desviación estándar. Algunos ejemplos gráficos

son: histograma, pirámide poblacional, clústers, entre otros.

Page 9: La ciencia

La estadística inferencial, se dedica a la generación de losmodelos, inferencias y predicciones asociadas a los

fenómenos en cuestión teniendo en cuenta la aleatoriedad de las observaciones. Se usa

para modelar patrones en los datos y extraer inferencias acerca de la población bajo estudio. Estas inferencias

pueden tomar la forma de respuestas a preguntas si/no (prueba de hipótesis), estimaciones de unas

características numéricas (estimación), pronósticos de futuras observaciones, descripciones de asociación

(correlación) o modelamiento de relaciones entre variables (análisis de regresión). Otras técnicas

de modelamiento incluyen anova, series de tiempo y minería de datos.

Ambas ramas (descriptiva e inferencial) comprenden la estadística aplicada. Hay también una disciplina

llamada estadística matemática, la que se refiere a las bases teóricas de la materia. La palabra «estadísticas»

también se refiere al resultado de aplicar un algoritmo estadístico a un conjunto de datos, como en estadísticas

económicas, estadísticas criminales, entre otros.

Contenido

  [ocultar] 

1     Historia   o 1.1      Origen   o 1.2      Orígenes en probabilidad   o 1.3      Estado actual   

2     Métodos estadísticos   o 2.1      Estudios experimentales y observacionales   o 2.2      Niveles de medición   o 2.3      Técnicas de análisis estadístico   

3     Disciplinas especializadas   4     Computación estadística   5     Críticas a la estadística   6     Estadísticos famosos   7     Notas   8     Bibliografía   9     Enlaces externos   

[editar]Historia

[editar]OrigenEl término alemán Statistik, introducido originalmente por Gottfried Achenwall en 1749, se refería al análisis

de datos del Estado, es decir, la "ciencia del Estado" (o más bien, de la ciudad-estado). También se

llamó aritmética política de acuerdo con la traducción literal del inglés. No fue hasta el siglo XIX cuando el

Page 10: La ciencia

término estadística adquirió el significado de recolectar y clasificar datos. Este concepto fue introducido por el

militar británico Sir John Sinclair (1754-1835).

En su origen, por tanto, la Estadística estuvo asociada a los Estados o ciudades libres, para ser utilizados por el

gobierno y cuerpos administrativos (a menudo centralizados). La colección de datos acerca de estados y

localidades continúa ampliamente a través de los servicios de estadística nacionales e internacionales. En

particular, los censos comenzaron a suministrar información regular acerca de la población de cada país. Así pues,

los datos estadísticos se referían originalmente a los datos demográficos de una ciudad o estado determinados. Y

es por ello por lo que en la clasificación decimal de Chester Dewey empleada en las bibliotecas, todas las obras

sobre estadística se encuentran ubicadas al lado de las obras de o sobre la demografía.

Ya se utilizaban representaciones gráficas y otras medidas en pieles, rocas, palos de madera y paredes de cuevas

para controlar el número de personas, animales o ciertas mercancías. Hacia el año 3000   a.   C.  los babilonios

usaban ya pequeños envases moldeados de arcilla para recopilar datos sobre la producción agrícola y de los

géneros vendidos o cambiados. Los egipcios analizaban los datos de la población y la renta del país mucho antes

de construir las pirámides en el siglo XI a. C. Los libros bíblicos de Números y Crónicasincluyen en algunas partes

trabajos de estadística. El primero cona están ubicadas al lado de las demográficas. La estadística tiene dos

censos de la población de la Tierra de Israel y el segundo describe el bienestar material de las diversas tribus

judías. En Chinaexistían registros numéricos similares con anterioridad al año 2000   a.   C.  Los antiguos griegos

realizaban censos cuya información se utilizaba hacia el 594   a.   C.  para cobrar impuestos.

[editar]Orígenes en probabilidadLos métodos estadístico-matemáticos emergieron desde la teoría de probabilidad, la cual data desde la

correspondencia entre Pascal y Pierre de Fermat (1654). Christian Huygens (1657) da el primer tratamiento

científico que se conoce a la materia. El Ars coniectandi(póstumo, 1713) de Jakob Bernoulli y la Doctrina de

posibilidades (1718) de Abraham de Moivre estudiaron la materia como una rama de las matemáticas.1 En la era

moderna, el trabajo de Kolmogórov ha sido un pilar en la formulación del modelo fundamental de la Teoría de

Probabilidades, el cual es usado a través de la estadística.

La teoría de errores se puede remontar a la Ópera miscellánea (póstuma, 1722) de Roger Cotes y al trabajo

preparado por Thomas Simpson en 1755 (impreso en 1756) el cual aplica por primera vez la teoría de la discusión

de errores de observación. La reimpresión (1757) de este trabajo incluye el axioma de que errores positivos y

negativos son igualmente probables y que hay unos ciertos límites asignables dentro de los cuales se encuentran

todos los errores; se describen errores continuos y una curva de probabilidad.

Pierre-Simon Laplace (1774) hace el primer intento de deducir una regla para la combinación de observaciones

desde los principios de la teoría de probabilidades. Laplace representó la Ley de probabilidades de errores

mediante una curva y dedujo una fórmula para la media de tres observaciones. También, en 1871, obtiene la

fórmula para la ley de facilidad del error (término introducido por Lagrange, 1744) pero con ecuaciones

inmanejables. Daniel Bernoulli (1778) introduce el principio del máximo producto de las probabilidades de un

sistema de errores concurrentes.

Page 11: La ciencia

Fotografía de Ceres por el telescopio espacial Hubble. La posición fue estimada por Gauss

mediante el método de mínimos cuadrados.

El método de mínimos cuadrados, el cual fue usado para minimizar los errores en mediciones, fue publicado

independientemente por Adrien-Marie Legendre (1805), Robert Adrain (1808), yCarl Friedrich Gauss (1809). Gauss

había usado el método en su famosa predicción de la localización del planeta enano Ceres en 1801. Pruebas

adicionales fueron escritas por Laplace (1810, 1812), Gauss (1823), James Ivory (1825, 1826), Hagen

(1837), Friedrich Bessel (1838),W.F. Donkin (1844, 1856), John Herschel (1850) y Morgan Crofton (1870). Otros

contribuidores fueron Ellis (1844), Augustus De Morgan (1864), Glaisher (1872) y Giovanni Schiaparelli (1875). La

fórmula de Peters para  , el probable error de una observación simple es bien conocido.

El siglo XIX incluye autores como Laplace, Silvestre Lacroix (1816), Littrow (1833), Richard Dedekind (1860),

Helmert (1872), Hermann Laurent (1873), Liagre, Didion y Karl Pearson.Augustus De Morgan y George

Boole mejoraron la presentación de la teoría. Adolphe Quetelet(1796-1874), fue otro importante fundador de la

estadística y quien introdujo la noción del «hombre promedio» (l’homme moyen) como un medio de entender los

fenómenos sociales complejos tales como tasas de criminalidad, tasas de matrimonio o tasas de suicidios.

[editar]Estado actualDurante el siglo XX, la creación de instrumentos precisos para asuntos de salud

pública (epidemiología, bioestadística, etc.) y propósitos económicos y sociales (tasa de desempleo, econometría,

etc.) necesitó de avances sustanciales en las prácticas estadísticas.

Hoy el uso de la estadística se ha extendido más allá de sus orígenes como un servicio al Estado o al gobierno.

Personas y organizaciones usan la estadística para entender datos y tomar decisiones en ciencias naturales y

sociales, medicina, negocios y otras áreas. La estadística es entendida generalmente no como un sub-área de las

matemáticas sino como una ciencia diferente «aliada». Muchas universidades tienen departamentos académicos

de matemáticas y estadística separadamente. La estadística se enseña en departamentos tan diversos

como psicología, educación y salud pública.

Page 12: La ciencia

Regresión lineal - Gráficos de dispersión en estadística.

Al aplicar la estadística a un problema científico, industrial o social, se comienza con un proceso o población a ser

estudiado. Esta puede ser la población de un país, de granos cristalizados en una roca o de bienes

manufacturados por una fábrica en particular durante un periodo dado. También podría ser un proceso observado

en varios ascos instantes y los datos recogidos de esta manera constituyen una serie de tiempo.

Por razones prácticas, en lugar de compilar datos de una población entera, usualmente se estudia un subconjunto

seleccionado de la población, llamado muestra. Datos acerca de la muestra son recogidos de manera

observacional o experimental. Los datos son entonces analizados estadísticamente lo cual sigue dos propósitos:

descripción e inferencia.

El concepto de correlación es particularmente valioso. Análisis estadísticos de un conjunto de datos puede revelar

que dos variables (esto es, dos propiedades de la población bajo consideración) tienden a variar conjuntamente,

como si hubiera una conexión entre ellas. Por ejemplo, un estudio del ingreso anual y la edad de muerte podría

resultar en que personas pobres tienden a tener vidas más cortas que personas de mayor ingreso. Las dos

variables se dicen que están correlacionadas. Sin embargo, no se puede inferir inmediatamente la existencia de

una relación de causalidad entre las dos variables. El fenómeno correlacionado podría ser la causa de una tercera,

previamente no considerada, llamada variable confusora.

Si la muestra es representativa de la población, inferencias y conclusiones hechas en la muestra pueden ser

extendidas a la población completa. Un problema mayor es el de determinar que tan representativa es la muestra

extraída. La estadística ofrece medidas para estimar y corregir por aleatoriedad en la muestra y en el proceso de

recolección de los datos, así como métodos para diseñar experimentos robustos como primera medida, ver diseño

experimental.

El concepto matemático fundamental empleado para entender la aleatoriedad es el de probabilidad. La estadística

matemática(también llamada teoría estadística) es la rama de las matemáticas aplicadas que usa la teoría de

probabilidades y el análisis matemático para examinar las bases teóricas de la estadística.

El uso de cualquier método estadístico es válido solo cuando el sistema o población bajo consideración satisface

los supuestos matemáticos del método. El mal uso de la estadística puede producir serios errores en la descripción

Page 13: La ciencia

e interpretación, afectando las políticas sociales, la práctica médica y la calidad de estructuras tales como puentes

y plantas de reacción nuclear.

Incluso cuando la estadística es correctamente aplicada, los resultados pueden ser difícilmente interpretados por

un inexperto. Por ejemplo, el significado estadístico de una tendencia en los datos, que mide el grado al cual la

tendencia puede ser causada por una variación aleatoria en la muestra, puede no estar de acuerdo con el sentido

intuitivo. El conjunto de habilidades estadísticas básicas (y el escepticismo) que una persona necesita para

manejar información en el día a día se refiere como «cultura estadística».

[editar]Métodos estadísticos

[editar]Estudios experimentales y observacionalesUn objetivo común para un proyecto de investigación estadística es investigar la causalidad, y en particular extraer

una conclusión en el efecto que algunos cambios en los valores de predictores o variables independientes tienen

sobre una respuesta o variables dependientes. Hay dos grandes tipos de estudios estadísticos para estudiar

causalidad: estudios experimentales y observacionales. En ambos tipos de estudios, el efecto de las diferencias de

una variable independiente (o variables) en el comportamiento de una variable dependiente es observado. La

diferencia entre los dos tipos es la forma en que el estudio es conducido. Cada uno de ellos puede ser muy

efectivo.

[editar]Niveles de mediciónHay cuatro tipos de mediciones o escalas de medición en estadística. Los cuatro tipos de niveles de

medición (nominal, ordinal,intervalo y razón) tienen diferentes grados de uso en la investigación estadística. Las

medidas de razón, en donde un valor cero y distancias entre diferentes mediciones son definidas, dan la mayor

flexibilidad en métodos estadísticos que pueden ser usados para analizar los datos. Las medidas de intervalo

tienen distancias interpretables entre mediciones, pero un valor cero sin significado (como las mediciones de

coeficiente intelectual o temperatura en grados Celsius). Las medidas ordinales tienen imprecisas diferencias entre

valores consecutivos, pero un orden interpretable para sus valores. Las medidas nominales no tienen ningún rango

interpretable entre sus valores.

La escala de medida nominal, puede considerarse la escala de nivel más bajo. Se trata de agrupar objetos en

clases. La escala ordinal, por su parte, recurre a la propiedad de «orden» de los números. La escala de intervalos

iguales está caracterizada por una unidad de medida común y constante. Es importante destacar que el punto cero

en las escalas de intervalos iguales es arbitrario, y no refleja en ningún momento ausencia de la magnitud que

estamos midiendo. Esta escala, además de poseer las características de la escala ordinal, permite determinar la

magnitud de los intervalos (distancia) entre todos los elementos de la escala. La escala de coeficientes o Razones

es el nivel de medida más elevado y se diferencia de las escalas de intervalos iguales únicamente por poseer un

punto cero propio como origen; es decir que el valor cero de esta escala significa ausencia de la magnitud que

estamos midiendo. Si se observa una carencia total de propiedad, se dispone de una unidad de medida para el

Page 14: La ciencia

efecto. A iguales diferencias entre los números asignados corresponden iguales diferencias en el grado de atributo

presente en el objeto de estudio.

LógicaLa lógica es una ciencia formal que estudia los principios de la demostración e inferencia válida. La palabra deriva

del griego antiguoλογική (logike), que significa «dotado de razón, intelectual, dialéctico, argumentativo», que a su

vez viene de λόγος (logos), «palabra,pensamiento, idea, argumento, razón o principio».

La lógica examina la validez de los argumentos en términos de su estructura lógica, independientemente

del contenido específico deldiscurso y de la lengua utilizada en su expresión y de los estados reales a los que

dicho contenido se pueda referir.

Esto es exactamente lo que quiere decir que la lógica es una ciencia «formal».

Tradicionalmente ha sido considerada como una parte de la filosofía. Pero en su desarrollo histórico, a partir del

final del siglo XIX, y suformalización simbólica ha mostrado su íntima relación con las matemáticas; de tal forma

que algunos la consideran como Lógica matemática.

En el siglo XX la lógica ha pasado a ser principalmente la lógica simbólica. Un cálculo definido por unos símbolos y

unas reglas de inferencia.1 Lo que ha permitido un campo de aplicación fundamental en la actualidad:

la informática.

Hasta entonces la lógica no tuvo este sentido de estructura formal estricta. La

tradición aristotélica y estoica,2 mantuvo siempre una relación con los argumentos del lenguaje natural,

concediendo por tanto a los argumentos una transmisión de contenidos verdaderos. Por ello aún siendo formales,

no eran formalistas.3

Hoy, tras los progresos científicos relativos a la lingüística, y el concepto semántico de verdad en su relación con el

lenguaje,4 tal relación se trata bajo un punto de vista completamente diferente.

La formalización estricta ha mostrado las limitaciones de la lógica tradicional interpretada actualmente como una

particularidad de lalógica de clases.5

Page 15: La ciencia

Contenido

  [ocultar] 

1     Diferentes acepciones del término «lógica»   o 1.1      Ciencia argumentativa y propedéutica   o 1.2      Ciencia del pensar   o 1.3      Ciencia formal   o 1.4      La lógica informal   

2     Sistemas lógicos   o 2.1      Lógicas clásicas   o 2.2      Lógicas no clásicas   o 2.3      Lógicas modales   

3     Metalógica   o 3.1      Consistencia   o 3.2      Decidibilidad   o 3.3      Completitud   

4     Falacias   o 4.1      Falacias formales   o 4.2      Falacias informales   

5     Paradojas   6     Historia de la lógica   o 6.1      Edad Antigua   o 6.2      Edad Media   o 6.3      La Edad Moderna   o 6.4      Siglo XIX   o 6.5      Siglo XX   

7     Notas y referencias   8     Bibliografía adicional   9     Véase también   10      Enlaces externos   

[editar]Diferentes acepciones del término «lógica»

[editar]Ciencia argumentativa y propedéuticaEl término «lógica», se encuentra en los antiguos peripatéticos y estoicos como una teoría de la argumentación o

argumento cerrado;6De este modo la forma argumentativa responde al principio de conocimiento que supone que

Page 16: La ciencia

representa adecuadamente la realidad.7Por ello, sin perder su condición de formalidad, no son formalistas y no

acaban de desprenderse de las estructuras propias dellenguaje.3

Con el nombre de Dialéctica, en la Edad Media, la Lógica mantiene la condición de ciencia propedéutica. Así se

estudia en la estructura de las enseñanzas del Trivium como una de las artes liberales.

En la Edad Moderna la lógica tradicional aristotélica adquiere un nuevo enfoque en las interpretaciones

racionalistas de Port Royal, en el siglo XVII, pero tampoco supusieron un cambio radical en el concepto de la

Lógica como ciencia.

[editar]Ciencia del pensar

Gottfried Leibniz (1646-1716).

Los filósofos racionalistas, sin embargo, al situar el origen de la reflexión filosófica en la conciencia, aportaron, a

través del desarrollo del análisis como método científico delpensar,8 los temas que van a marcar el desarrollo

de la lógica formal. Son de especial importancia la idea de Descartes de una Mathesis universalis9 y de Leibniz

que, con suCharacteristica Universalis supone la posibilidad de un lenguaje universal, especificado con precisión

matemática sobre la base de que la sintaxis de las palabras debería estar encorrespondencia con

las entidades designadas como individuos o elementos metafísicos, lo que haría posible

un cálculo o computación mediante algoritmo en el descubrimiento de la verdad.10 11

Aparecen los primeros intentos y realizaciones de máquinas de cálculo, (Pascal, Leibniz) y, aunque su desarrollo

no fue eficaz, sin embargo la idea de una Mathesis Universal oCaracterística Universal, es el antecedente

inmediato del desarrollo de la lógica simbólica a partir del siglo XX.

La palabra «lógica» ha sido utilizada como lógica trascendental por Kant, en el sentido de investigar

los conceptos puros a priori del entendimiento o categorías trascendentales.

Page 17: La ciencia

Hegel considera la lógica dentro del absoluto como proceso dialéctico del Absoluto, entendido éste como Principio

Absoluto, Espíritu Absoluto, y Sujeto, como Sujeto Absoluto.12 13 La lógica, la epistemología y la ontología van

unidas y son expuestas en la filosofía entendida ésta como Sistema Absoluto.

[editar]Ciencia formalEn el último tercio del siglo XIX la Lógica va a encontrar su transformación más profunda de la mano de las

investigaciones matemáticas y lógicas, junto con el desarrollo de la investigación de las estructuras profundas del

lenguaje, la lingüística, convirtiéndose definitivamente en una ciencia formal.

[editar]La lógica informalEn el lenguaje cotidiano, expresiones como «lógica» o «pensamiento lógico», aporta también un sentido alrededor

de un «pensamiento lateral» comparado, haciendo los contenidos de la afirmación coherentes con un contexto,

bien sea del discurso o de una teoría de laciencia, o simplemente con las creencias o evidencias transmitidas por

la tradición cultural.

Del mismo modo existe el concepto sociológico y cultural de lógica como, p.e. «la lógica de las mujeres», «lógica

deportiva», etc. que, en general, podríamos considerar como «lógica cotidiana» - también conocida como «lógica

del sentido común».

En estas áreas la «lógica» suele tener una referencia lingüística en la pragmática.

Un argumento en este sentido tiene su «lógica» cuando resulta convincente, razonable y claro; en definitiva cuando

cumple una función de eficacia. La habilidad de pensar y expresar un argumento así corresponde a la retórica,

cuya relación con la verdad es una relaciónprobable.14

[editar]Sistemas lógicos

Artículo principal: Sistema formal.

Existe un debate sobre si es correcto hablar de una lógica, o de varias lógicas, pero en el siglo XX se han

desarrollado no uno, sino varios sistemas lógicos diferentes, que capturan y formalizan distintas partes del lenguaje

natural. Se podría definir a un sistema lógico como un conjunto de cosas, que nos ayudan en la toma de decisiones

que sean lo más convenientemente posible.

Un sistema lógico está compuesto por:

1. Un conjunto de símbolos primitivos (el alfabeto, o vocabulario).

2. Un conjunto de reglas de formación (la gramática) que nos dice cómo construir fórmulas bien formadas a

partir de los símbolos primitivos.

3. Un conjunto de axiomas o esquemas de axiomas. Cada axioma debe ser una fórmula bien formada.

4. Un conjunto de reglas de inferencia. Estas reglas determinan qué fórmulas pueden inferirse de qué

fórmulas. Por ejemplo, una regla de inferencia clásica es el modus ponens, según el cual, dada una

fórmula A, y otra fórmula A → B, la regla nos permite afirmar que B.

Page 18: La ciencia

Estos cuatro elementos completan la parte sintáctica de los sistemas lógicos. Sin embargo, todavía no se ha dado

ningún significadoa los símbolos discutidos, y de hecho, un sistema lógico puede definirse sin tener que hacerlo.

Tal tarea corresponde al campo llamado semántica formal, que se ocupa de introducir un quinto elemento:

5. Una interpretación formal. En los lenguajes naturales, una misma palabra puede significar diversas cosas

dependiendo de la interpretación que se le dé. Por ejemplo, en el idioma español, la palabra «banco»

puede significar un edificio o un asiento, mientras que en otros idiomas puede significar algo

completamente distinto o nada en absoluto. En consecuencia, dependiendo de la interpretación, variará

también el valor de verdad de la oración «el banco está cerca». Las interpretaciones formales asignan

significados inequívocos a los símbolos, y valores de verdad a las fórmulas.

[editar]Lógicas clásicas

Los sistemas lógicos clásicos son los más estudiados y utilizados de todos, y se caracterizan por incorporar ciertos

principios tradicionales que otras lógicas rechazan. Algunos de estos principios son: el principio del tercero

excluido, el principio de no contradicción, el principio de explosión y la monoticidad de la implicación. Entre los

sistemas lógicos clásicos se encuentran:

Lógica proposicional

Lógica de primer orden

Lógica de segundo orden

[editar]Lógicas no clásicas

Los sistemas lógicos no clásicos son aquellos que rechazan uno o varios de los principios de la lógica clásica.

Algunos de estos sistemas son:

Lógica difusa : Es una lógica plurivalente que rechaza el principio del tercero excluido y propone un número

infinito de valores de verdad.

Lógica relevante : Es una lógica paraconsistente que evita el principio de explosión al exigir que para que un

argumento sea válido, las premisas y la conclusión deben compartir al menos una variable proposicional.

Lógica cuántica : Desarrollada para lidiar con razonamientos en el campo de la mecánica cuántica; su

característica más notable es el rechazo de la propiedad distributiva.

Lógica no monotónica : Una lógica no monotónica es una lógica donde, al agregar una fórmula a una teoría

cualquiera, es posible que el conjunto de consecuencias de esa teoría se reduzca.

Lógica intuicionista : Enfatiza las pruebas, en vez de la verdad, a lo largo de las transformaciones de las

proposiciones.

[editar]Lógicas modales

Las lógicas modales están diseñadas para tratar con expresiones que califican la verdad de los juicios. Así por

ejemplo, la expresión «siempre» califica a un juicio verdadero como verdadero en cualquier momento, es

decir, siempre. No es lo mismo decir «está lloviendo» que decir «siempre está lloviendo».

Page 19: La ciencia

Lógica modal : Trata con las nociones de necesidad, posibilidad, imposibilidad y contingencia.

Lógica deóntica : Se ocupa de las nociones morales de obligación y permisibilidad.

Lógica temporal : Abarca operadores temporales como «siempre», «nunca», «antes», «después», etc.

Lógica epistémica : Es la lógica que formaliza los razonamientos relacionados con el conocimiento.

Lógica doxástica : Es la lógica que trata con los razonamientos acerca de las creencias.

[editar]Metalógica

Mientras la lógica se encarga, entre otras cosas, de construir sistemas lógicos, la metalógica se ocupa de estudiar

las propiedades de dichos sistemas. Las propiedades más importantes que se pueden demostrar de los sistemas

lógicos son:

[editar]Consistencia

Artículo principal: Consistencia (lógica).

Un sistema tiene la propiedad de ser consistente cuando no es posible deducir una contradicción dentro del

sistema. Es decir, dado un lenguaje formal con un conjunto de axiomas, y un aparato deductivo (reglas de

inferencia), no es posible llegar a una contradicción.

[editar]Decidibilidad

Artículo principal: Decidibilidad.

Se dice de un sistema que es decidible cuando, para cualquier fórmula dada en el lenguaje del sistema, existe

un método efectivo para determinar si esa fórmula pertenece o no al conjunto de las verdades del sistema. Cuando

una fórmula no puede ser probada verdadera ni falsa, se dice que la fórmula es independiente, y que por lo tanto el

sistema es no decidible. La única manera de incorporar una fórmula independiente a las verdades del sistema es

postulándola como axioma. Dos ejemplos muy importantes de fórmulas independientes son el axioma de

elección en la teoría de conjuntos, y el quinto postulado de la geometría euclidiana.

[editar]Completitud

Artículo principal: Completitud (lógica).

Se habla de completitud en varios sentidos, pero quizás los dos más importantes sean los de completitud

semántica y completitud sintáctica. Un sistema S en un lenguaje L es semánticamente completo cuando todas

las verdades lógicas de L son teoremas de S. En cambio, un sistema S es sintácticamente completo si, para toda

fórmula A del lenguaje del sistema, A es un teorema de S o ¬A es un teorema de S. Esto es, existe una prueba

para cada fórmula o para su negación. La lógica proposicional y la lógica de predicados de primer orden son

ambas semánticamente completas, pero no sintácticamente completas. Por ejemplo, nótese que en la lógica

proposicional, la fórmula p no es un teorema, y tampoco lo es su negación, pero como ninguna de las dos es una

verdad lógica, no afectan a la completitud semántica del sistema. El segundo teorema de incompletitud de

Gödel demuestra que ningún sistema (definido recursivamente) con cierto poder expresivo puede ser a la vez

consistente y completo.

Page 20: La ciencia

[editar]Falacias

Artículo principal: Falacia.

Una falacia es un argumento que si bien puede ser convincente o persuasivo,15 no es lógicamente válido. Esto no

quiere decir que la conclusión de los argumentos falaces sea falsa, sino que el argumento mismo es malo, no

es válido.16

Existen varias maneras de clasificar a la gran cantidad de falacias conocidas, pero quizás la más neutral y general

(aunque tal vez un poco amplia), sea la que divide a las falacias en formales e informales.

[editar]Falacias formales

Las falacias formales son aquellas cuyo error reside en la forma o estructura de los argumentos. Algunos ejemplos

conocidos de falacias formales son:

Afirmación del consecuente : Un ejemplo de esta falacia podría ser:

1. Si María estudia, entonces aprobará el examen.

2. María aprobó el examen.

3. Por lo tanto, María estudió.

Esta falacia resulta evidente cuando advertimos que puede haber muchas otras razones de por qué María

aprobó el examen. Por ejemplo, pudo haber copiado, o quizá tuvo suerte, o quizá aprobó gracias a lo que

recordaba de lo que escuchó en clase, etc. En tanto es una falacia formal, el error en este argumento reside

en la forma del mismo, y no en el ejemplo particular de María y su examen. La forma del argumento es la

siguiente:

4. Si p, entonces q.

5. q

6. Por lo tanto, p.

Generalización apresurada : En esta falacia, se intenta concluir una proposición general a partir de un número

relativamente pequeño de casos particulares. Por ejemplo:

1. Todos las personas altas que conozco son rápidas.

2. Por lo tanto, todas las personas altas son rápidas.

El límite entre una generalización apresurada y un razonamiento inductivo puede ser muy delgado, y encontrar

un criterio para distinguir entre uno y otro es parte del problema de la inducción.

[editar]Falacias informales

Las falacias informales son aquellas cuya falta está en algo distinto a la forma o estructura de los argumentos. Esto

resulta más claro con algunos ejemplos:

Page 21: La ciencia

Falacia   ad hominem : se llama falacia ad hominem a todo argumento que, en vez de atacar la posición y las

afirmaciones del interlocutor, ataca al interlocutor mismo. La estrategia consiste en descalificar la posición del

interlocutor, al descalificar a su defensor. Por ejemplo, si alguien argumenta: «Usted dice que robar está mal,

pero usted también lo hace», está cometiendo una falacia ad hominem (en particular, una falacia tu quoque),

pues pretende refutar la proposición «robar está mal» mediante un ataque al proponente. Si un ladrón dice que

robar está mal, quizás sea muy hipócrita de su parte, pero eso no afecta en nada a la verdad o la falsedad de

la proposición en sí.

Falacia   ad verecundiam : se llama falacia ad verecundiam a aquel argumento que apela a la autoridad o al

prestigio de alguien o de algo a fin de defender una conclusión, pero sin aportar razones que la justifiquen.

Falacia   ad ignorantiam : se llama falacia ad ignorantiam al argumento que defiende la verdad o falsedad de

una proposición porque no se ha podido demostrar lo contrario.

Falacia   ad baculum : Se llama falacia ad baculum a todo argumento que defiende una proposición basándose

en la fuerza o en la amenaza.

Falacia circular : se llama falacia circular a todo argumento que defiende una conclusión que se verifica

recíprocamente con la premisa, es decir que justifica la vericidad de la premisa con la de la conclusión y

viceversa, cometiendo circularidad.

Falacia del hombre de paja : Sucede cuando, para rebatir los argumentos de un interlocutor, se distorsiona su

posición y luego se refuta esa versión modificada. Así, lo que se refuta no es la posición del interlocutor, sino

una distinta que en general es más fácil de atacar. Tómese por ejemplo el siguiente diálogo:

Persona A: Sin duda estarás de acuerdo en que los Estados Unidos tienen el sistema legal más justo y el

gobierno más organizado.

Persona B: Si los Estados Unidos son el mejor país del mundo, eso sólo significa que las opciones son

muy pocas y muy pobres.

En este diálogo, la persona B puso en la boca de la persona A algo que ésta no dijo: que los Estados

Unidos son el mejor país del mundo. Luego atacó esa posición, como si fuera la de la persona A.

[editar]Paradojas

Artículo principal: Paradoja.

Una paradoja es un razonamiento en apariencia válido, que parte de premisas en apariencia verdaderas,

pero que conduce a una contradicción o a una situación contraria al sentido común.17 Los esfuerzos por

resolver ciertas paradojas han impulsado desarrollos en la lógica, la filosofía, la matemática y

las ciencias en general.

[editar]Historia de la lógica

Artículo principal: Historia de la lógica.

Page 22: La ciencia

Históricamente la palabra «lógica» ha ido cambiando de sentido. Comenzó siendo una modelización de

los razonamientos, propuesta por los filósofos griegos, y posteriormente ha evolucionado hacia

diversos sistemas formales. Etimológicamente la palabra lógica deriva del término griego Λογικός logikós,

que a su vez deriva de λόγος logos 'razón, palabra, discurso'.18

En un principio la lógica no tuvo el sentido de estructura formal estricta.

[editar]Edad AntiguaLa lógica, como un análisis explícito de los métodos de razonamiento, se desarrolló originalmente en tres

civilizaciones de la historia antigua: China, India y Grecia, entre el siglo V y el siglo I a. C.

En China no duró mucho tiempo: la traducción y la investigación escolar en lógica fue reprimida por

la dinastía Qin, acorde con la filosofía legista. En India, la lógica duró bastante más: se desarrolló (por

ejemplo con la nyāya) hasta que en el mundo islámico apareció la escuela de Asharite, la cual suprimió

parte del trabajo original en lógica. A pesar de lo anterior, hubo innovaciones escolásticas indias hasta

principios del siglo XIX, pero no sobrevivió mucho dentro de la India colonial. El tratamiento sofisticado y

formal de la lógica moderna aparentemente proviene de la tradición griega.

Se considera a Aristóteles el fundador de la lógica como propedéutica o herramienta básica para todas las

ciencias. Aristóteles fue el primero en formalizar los razonamientos, utilizando letras para representar

términos. También fue el primero en emplear el término «lógica» para referirse al estudio de

los argumentos dentro del «lenguaje apofántico» como manifestador de la verdad en la ciencia. Sostuvo

que la verdad se manifiesta en el juicio verdadero y el argumento válido en el silogismo: «Silogismo es un

argumento en el cual, establecidas ciertas cosas, resulta necesariamente de ellas, por ser lo que son, otra

cosa diferente».19 Se refirió en varios escritos de su Órganon a cuestiones tales como concepto,

la proposición, definición, prueba y falacia. En su principal obra lógica, losPrimeros analíticos, desarrolló

el silogismo, un sistema lógico de estructura rígida. Aristóteles también formalizó el cuadro de oposición

de los juicios y categorizó las formas válidas del silogismo. Además, Aristóteles reconoció y estudió los

argumentos inductivos, base de lo que constituye la ciencia experimental, cuya lógica está estrechamente

ligada al método científico. La influencia de los logros de Aristóteles fue tan grande, que en el siglo

XVIII, Immanuel Kant llegó a decir que Aristóteles había prácticamente completado la ciencia de la

lógica.20

Los filósofos estoicos introdujeron el silogismo hipotético y anunciaron la lógica proposicional, pero no

tuvo mucho desarrollo.

Por otro lado, la lógica informal fue cultivada por la retórica, la oratoria y la filosofía, entre otras ramas del

conocimiento. Estos estudios se centraron principalmente en la identificación de falacias y paradojas, así

como en la construcción correcta de los discursos.

En el periodo romano la lógica tuvo poco desarrollo, más bien se hicieron sumarios y comentarios a las

obras recibidas, siendo los más notables: Cicerón, Porfirio y Boecio. En el período bizantino, Filopón.

Page 23: La ciencia

[editar]Edad Media

Averroes, uno de los principales árabes en rescatar la lógica aristotélica y regresarla a

Occidente.

Con el nombre de Dialéctica en la Edad Media la Lógica mantiene la condición de cienciapropedéutica.

Así se estudia en la estructura de las enseñanzas del Trivium como una de las artes liberales pero sin

especiales aportaciones en la Alta Edad Media.

En su evolución hacia la Baja Edad Media son importantes las aportaciones árabes de Al-

Farabí; Avicena 21  y Averroes, pues fueron los árabes quienes reintrodujeron los escritos de Aristóteles en

Europa.

En la Baja Edad Media su estudio era requisito para entrar en cualquier universidad. Desde mediados del

siglo XIII se incluyen en la lógica tres cuerpos separados del texto. En lalogica vetus y logica nova es

tradicional escritos lógicos, especialmente el Órganon de Aristóteles y los comentarios

de Boecio y Porfirio. La parva logicalia puede ser considerada como representativa de la lógica medieval.

La evolución crítica que se va desarrollando a partir de las aportaciones de Abelardodinamizaron la

problemática lógica y epistemológica a partir del siglo XIII (Pedro Hispano;Raimundo Lulio 22  Lambert de

Auxerre Guillermo de Sherwood) que culminaron en toda la problemática del siglo XIV: Guillermo de

Ockham; Jean Buridan; Alberto de Sajonia.

Aquí están tratados una cantidad de nuevos problemas en la frontera de la lógica y la semántica que no

fueron tratados por los pensadores antiguos. De especial relevancia es la problemática respecto a la

valoración de los términos del lenguaje en relación con los conceptos universales, así como el estatuto

epistemológico y ontológico de éstos.

[editar]La Edad ModernaUn nuevo enfoque adquiere esta lógica en las interpretaciones racionalistas de Port Royal, en el siglo

XVII, (Antoine Arnauld; Pierre Nicole) pero tampoco supusieron un cambio radical en el concepto de la

Lógica como ciencia.

Page 24: La ciencia

Los filósofos racionalistas, sin embargo, aportaron a través del desarrollo del análisis y su desarrollo en

las matemáticas (Descartes,Pascal y Leibniz) los temas que van a marcar el desarrollo posterior. Son de

especial importancia la idea de Descartes de unaMathesis universalis23 y de Leibniz en la búsqueda de

un lenguaje universal, especificado con precisión matemática sobre la base de que la sintaxis de

las palabras debería estar en correspondencia con las entidades designadas como individuos o

elementosmetafísicos, lo que haría posible un cálculo o computación mediante algoritmo en el

descubrimiento de la verdad.24

Aparecen los primeros intentos y realizaciones de máquinas de cálculo, (Pascal, Leibniz) y, aunque su

desarrollo no fue eficaz, sin embargo la idea de una Mathesis Universal o «Característica Universal», es

el antecedente inmediato del desarrollo de la lógica a partir del siglo XX.

Artículo principal: Kant.

Kant consideraba que la lógica por ser una ciencia a priori había encontrado su pleno desarrollo

prácticamente con la lógica aristotélica, por lo que apenas había sido modificada desde entonces.25

Pero hace un uso nuevo de la palabra «lógica» como lógica trascendental, en el sentido de investigar

los conceptos puros delentendimiento o categorías trascendentales.

Artículo principal: Idealismo.

La lógica del pensar trascendental acaba situándose en un proceso dialéctico como idealismo

subjetivo en Fichte; idealismo objetivoen Schelling y, finalmente un idealismo absoluto en

Artículo principal: Hegel.

Hegel considera la lógica dentro del Absoluto como un proceso dialéctico del Espíritu Absoluto26 que

produce sus determinaciones como concepto y su realidad como resultado en el devenir de la Idea del

Absoluto como Sujeto27 cuya verdad se manifiesta en elresultado del movimiento mediante

la contradicción en tres momentos sucesivos, tesis-antítesis-síntesis. La epistemología y laontología van

unidas y expuestas en la Filosofía entendida ésta como Sistema Absoluto.

[editar]Siglo XIXA partir de la segunda mitad del siglo XIX, la lógica sería revolucionada profundamente. En 1847, George

Boole publicó un breve tratado titulado El análisis matemático de la lógica, y en 1854 otro más importante

titulado Las leyes del pensamiento. La idea de Boole fue construir a la lógica como un cálculo en el que

los valores de verdad se representan mediante el 0 (falsedad) y el 1 (verdad), y a los que se les

aplican operaciones matemáticas como la suma y la multiplicación.

Al mismo tiempo, Augustus De Morgan publica en 1847 su obra Lógica formal, donde introduce las leyes

de De Morgan e intenta generalizar la noción de silogismo. Otro importante contribuyente inglés fue John

Venn, quien en 1881 publicó su libro Lógica Simbólica, donde introdujo los famosos diagramas de Venn.

Page 25: La ciencia

Charles Sanders Peirce y Ernst Schröder también hicieron importantes contribuciones.

Sin embargo, la verdadera revolución de la lógica vino de la mano de Gottlob Frege, quien

frecuentemente es considerado como el lógico más importante de la historia, junto con Aristóteles. En su

trabajo de 1879, la Conceptografía, Frege ofrece por primera vez un sistema completo de lógica de

predicados. También desarrolla la idea de un lenguaje formal y define la noción de prueba. Estas ideas

constituyeron una base teórica fundamental para el desarrollo de las computadoras y las ciencias de la

computación, entre otras cosas. Pese a esto, los contemporáneos de Frege pasaron por alto sus

contribuciones, probablemente a causa de la complicada notación que desarrolló el autor. En 1893 y

1903, Frege publica en dos volúmenes Las leyes de la aritmética, donde intenta deducir toda

la matemática a partir de la lógica, en lo que se conoce como el proyecto logicista. Su sistema, sin

embargo, contenía una contradicción (la paradoja de Russell).

[editar]Siglo XXEl siglo XX sería uno de enormes desarrollos en lógica. A partir del siglo XX, la lógica pasó a estudiarse

por su interés intrínseco, y no sólo por sus virtudes como propedéutica, por lo que estudió a niveles

mucho más abstractos.

En 1910, Bertrand Russell y Alfred North Whitehead publican Principia mathematica, un trabajo

monumental en el que logran gran parte de la matemática a partir de la lógica, evitando caer en las

paradojas en las que cayó Frege. Los autores reconocen el mérito de Frege en el prefacio. En contraste

con el trabajo de Frege, Principia mathematica tuvo un éxito rotundo, y llegó a considerarse uno de los

trabajos de no ficción más importantes e influyentes de todo el siglo XX. Principia mathematica utiliza una

notación inspirada en la de Giuseppe Peano, parte de la cual todavía es muy utilizada hoy en día.

Si bien a la luz de los sistemas contemporáneos la lógica aristotélica puede parecer equivocada e

incompleta, Jan Łukasiewicz mostró que, a pesar de sus grandes dificultades, la lógica aristotélica era

consistente, si bien había que interpretarse como lógica de clases, lo cual no es pequeña modificación.

Por ello la silogística prácticamente no tiene uso actualmente.

Además de la lógica proposicional y la lógica de predicados, el siglo XX vio el desarrollo de muchos otros

sistemas lógicos; entre los que destacan las muchas lógicas modales.

Matemáticas(Redirigido desde «Matemática»)

Page 26: La ciencia

Euclides, matemático griego, del siglo III a. C., tal como fue imaginado por Rafael. Detalle de La

Escuela de Atenas.1

Las matemáticas o matemática (del lat. mathematĭca, y este del gr. μαθηματικά, derivado de

μάθημα, conocimiento) es una ciencia formal que, partiendo de axiomas y siguiendo el razonamiento lógico,

estudia las propiedades y relaciones entre entes abstractos (números,figuras geométricas, símbolos). Las

matemáticas se emplean para estudiar relaciones cuantitativas, estructuras, relaciones geométricas y

las magnitudes variables. Losmatemáticos buscan patrones,2 3 formulan nuevas conjeturas e intentan alcanzar

la verdad matemática mediante rigurosas deducciones. Éstas les permiten establecer los axiomas y

las definiciones apropiados para dicho fin.4 Algunas definiciones clásicas restringen las matemáticas al

razonamiento sobre cantidades,5 aunque sólo una parte de las matemáticas actuales usan números, predominando

el análisis lógico de construcciones abstractas no cuantitativas.

Existe cierto debate acerca de si los objetos matemáticos, como los números y puntos, realmente existen o si

provienen de la imaginación humana. El matemático Benjamin Peircedefinió las matemáticas como "la ciencia que

señala las conclusiones necesarias".6 Por otro lado, Albert Einstein declaró que "cuando las leyes de la matemática

se refieren a la realidad, no son exactas; cuando son exactas, no se refieren a la realidad".7

Mediante la abstracción y el uso de la lógica en el razonamiento, las matemáticas han evolucionado basándose en

las cuentas, elcálculo y las mediciones, junto con el estudio sistemático de la forma y el movimiento de los objetos

físicos. Las matemáticas, desde sus comienzos, han tenido un fin práctico.

Las explicaciones que se apoyaban en la lógica aparecieron por primera vez con la matemática helénica,

especialmente con losElementos de Euclides. Las matemáticas siguieron desarrollándose, con continuas

interrupciones, hasta que en el Renacimiento las innovaciones matemáticas interactuaron con los nuevos

descubrimientos científicos. Como consecuencia, hubo una aceleración en la investigación que continúa hasta la

actualidad.

Hoy en día, las matemáticas se usan en todo el mundo como una herramienta esencial en muchos campos, entre

los que se encuentran las ciencias naturales, la ingeniería, la medicina y las ciencias sociales, e incluso disciplinas

que, aparentemente, no están vinculadas con ella, como la música (por ejemplo, en cuestiones de resonancia

armónica). Las matemáticas aplicadas, rama de las matemáticas destinada a la aplicación de los conocimientos

Page 27: La ciencia

matemáticos a otros ámbitos, inspiran y hacen uso de los nuevos descubrimientos matemáticos y, en ocasiones,

conducen al desarrollo de nuevas disciplinas. Los matemáticos también participan en las matemáticas puras, sin

tener en cuenta la aplicación de esta ciencia, aunque las aplicaciones prácticas de las matemáticas puras suelen

ser descubiertas con el paso del tiempo.8

Contenido

  [ocultar] 

1     Etimología   2     La inspiración, las matemáticas puras y aplicadas y la estética   3     Notación, lenguaje y rigor   4     La matemática como ciencia   5     Conceptos erróneos   6     Ramas de estudio de las matemáticas   7     Campos de estudio de la matemática   8     Véase también   9     Referencias   o 9.1      Bibliografía   o 9.2      Enlaces externos   

[editar]Etimología

La palabra "matemática" (del griego μαθηματικά, «cosas que se aprenden») viene del griego antiguo μάθημα

(máthēma), que quiere decir «campo de estudio o instrucción». El significado se contrapone a μουσική (musiké) «lo

que se puede entender sin haber sido instruido», que refiere a poesía, retórica y campos similares, mientras que

μαθηματική se refiere a las áreas del conocimiento que sólo pueden entenderse tras haber sido instruido en las

mismas (astronomía, aritmética).9 Aunque el término ya era usado por lospitagóricos (matematikoi) en el siglo

VI a. C., alcanzó su significado más técnico y reducido de "estudio matemático" en los tiempos de Aristóteles (siglo

IV a. C.). Su adjetivo es μαθηματικός (mathēmatikós), "relacionado con el aprendizaje", lo cual, de manera similar,

vino a significar "matemático". En particular, μαθηματική τέχνη (mathēmatikḗ tékhnē; en latín ars mathematica),

significa "el arte matemática".

La forma más usada es el plural matemáticas, que tiene el mismo significado que el singular5 y viene de la forma

latina mathematica(Cicerón), basada en el plural en griego τα μαθηματικά (ta mathēmatiká), usada por Aristóteles y

que significa, a grandes rasgos, "todas las cosas matemáticas". Algunos autores, sin embargo, hacen uso de la

forma singular del término; tal es el caso de Bourbaki, en el tratado Élements de mathématique (Elementos de

matemática), (1940), destaca la uniformidad de este campo aportada por la visión axiomática moderna, aunque

también hace uso de la forma plural como en Éléments d'histoire des mathématiques (Elementos de historia de las

matemáticas) (1969), posiblemente sugiriendo que es Bourbaki quien finalmente realiza la unificación de las

Page 28: La ciencia

matemáticas.10 Así mismo, en el escrito L'Architecture des mathématiques (1948) plantea el tema en la sección

"Matemáticas, singular o plural" donde defiende la unicidad conceptual de las matemáticas aunque hace uso de la

forma plural en dicho escrito.11 Es importante señalar también que Bourbaki no hace referencia a una sola persona,

sino que en realidad consistía de un colectivo de diferentes matemáticos escribiendo bajo un pseudónimo.

[editar]La inspiración, las matemáticas puras y aplicadas y la estética

Véase también: Belleza matemática.

Sir Isaac Newton (1643-1727), comparte con Leibniz la autoría del desarrollo delcálculo integral y

diferencial.

Es muy posible que el arte del cálculo haya sido desarrollado antes incluso que la escritura,12 relacionado

fundamentalmente con la contabilidad y la administración de bienes, el comercio, en la agrimensura y,

posteriormente, en la astronomía.

Actualmente, todas las ciencias aportan problemas que son estudiados por matemáticos, al mismo tiempo que

aparecen nuevos problemas dentro de las propias matemáticas. Por ejemplo, el físico Richard Feynman propuso

la integral de caminos como fundamento de lamecánica cuántica, combinando el razonamiento matemático y el

enfoque de la física, pero todavía no se ha logrado una definición plenamente satisfactoria en términos

matemáticos. Similarmente, la teoría de las cuerdas, una teoría científica en desarrollo que trata de unificar las

cuatro fuerzas fundamentales de la física, sigue inspirando a las más modernas matemáticas.13

Algunas matemáticas solo son relevantes en el área en la que estaban inspiradas y son aplicadas para otros

problemas en ese campo. Sin embargo, a menudo las matemáticas inspiradas en un área concreta resultan útiles

Page 29: La ciencia

en muchos ámbitos, y se incluyen dentro de los conceptos matemáticos generales aceptados. El notable hecho de

que incluso la matemática más pura habitualmente tiene aplicaciones prácticas es lo que Eugene Wignerha

definido como la irrazonable eficacia de las matemáticas en las Ciencias Naturales.14

Como en la mayoría de las áreas de estudio, la explosión de los conocimientos en la era científica ha llevado a la

especialización de las matemáticas. Hay una importante distinción entre las matemáticas puras y las matemáticas

aplicadas. La mayoría de los matemáticos que se dedican a la investigación se centran únicamente en una de

estas áreas y, a veces, la elección se realiza cuando comienzan su licenciatura. Varias áreas de las matemáticas

aplicadas se han fusionado con otras áreas tradicionalmente fuera de las matemáticas y se han convertido en

disciplinas independientes, como pueden ser la estadística, la investigación de operaciones o lainformática.

Aquellos que sienten predilección por las matemáticas, consideran que prevalece un aspecto estético que define a

la mayoría de las matemáticas. Muchos matemáticos hablan de la elegancia de la matemática, su

intrínseca estética y su belleza interna. En general, uno de sus aspectos más valorados es la simplicidad. Hay

belleza en una simple y contundente demostración, como la demostración de Euclides de la existencia de

infinitos números primos, y en un elegante análisis numérico que acelera el cálculo, así como en latransformada

rápida de Fourier. G. H. Hardy en A Mathematician's Apology (Apología de un matemático) expresó la convicción

de que estas consideraciones estéticas son, en sí mismas, suficientes para justificar el estudio de las matemáticas

puras.15 Los matemáticos con frecuencia se esfuerzan por encontrar demostraciones de los teoremas que son

especialmente elegantes, el excéntrico matemático Paul Erdős se refiere a este hecho como la búsqueda de

pruebas de "El Libro" en el que Dios ha escrito sus demostraciones favoritas.16 17 La popularidad de la matemática

recreativa es otra señal que nos indica el placer que produce resolver las preguntas matemáticas.

[editar]Notación, lenguaje y rigor

Artículo principal: Notación matemática.

Page 30: La ciencia

Leonhard Euler. Probablemente el más prolífico matemático de todos los tiempos.

La mayor parte de la notación matemática que se utiliza hoy en día no se inventó hasta el siglo XVIII.18 Antes de

eso, las matemáticas eran escritas con palabras, un minucioso proceso que limita el avance matemático. En el

siglo XVIII, Euler, fue responsable de muchas de las notaciones empleadas en la actualidad. La notación moderna

hace que las matemáticas sean mucho más fácil para los profesionales, pero para los principiantes resulta

complicada. La notación reduce las matemáticas al máximo, hace que algunos símbolos contengan una gran

cantidad de información. Al igual que la notación musical, la notación matemática moderna tiene una sintaxis

estricta y codifica la información que sería difícil de escribir de otra manera.

El símbolo de infinito en diferentes tipografías.

El lenguaje matemático también puede ser difícil para los principiantes. Palabras tales como o y sólo tiene

significados más precisos que en lenguaje cotidiano. Además, palabras como abierto y cuerpo tienen significados

matemáticos muy concretos. La jerga matemática, o lenguaje matemático, incluye términos técnicos

como homeomorfismo ointegrabilidad. La razón que explica la necesidad de utilizar la notación y la jerga es que el

lenguaje matemático requiere más precisión que el lenguaje cotidiano. Los matemáticos se refieren a esta

precisión en el lenguaje y en la lógica como el "rigor".

El rigor es una condición indispensable que debe tener una demostración matemática. Los matemáticos quieren

que sus teoremas a partir de los axiomas sigan un razonamiento sistemático. Esto sirve para

evitar teoremas erróneos, basados en intuiciones falibles, que se han dado varias veces en la historia de esta

ciencia.19 El nivel de rigor previsto en las matemáticas ha variado con el tiempo: los griegos buscaban argumentos

detallados, pero en tiempos de Isaac Newton los métodos empleados eran menos rigurosos. Los problemas

inherentes de las definiciones que Newton utilizaba dieron lugar a un resurgimiento de un análisis cuidadoso y a las

demostraciones oficiales del siglo XIX. Ahora, los matemáticos continúan apoyándose entre ellos mediante

demostraciones asistidas por ordenador.20

Un axioma se interpreta tradicionalmente como una "verdad evidente", pero esta concepción es problemática. En el

ámbito formal, un axioma no es más que una cadena de símbolos, que tiene un significado intrínseco sólo en el

contexto de todas las fórmulas derivadas de un sistema axiomático.

Page 31: La ciencia

[editar]La matemática como ciencia

Carl Friedrich Gauss, apodado el "príncipe de los matemáticos", se refería a la matemática como

"la reina de las ciencias".

Carl Friedrich Gauss se refería a la matemática como "la reina de las ciencias".21 Tanto en el latín

original Scientiarum Regina, así como en alemán Königin der Wissenschaften, la palabra ciencia debe ser

interpretada como (campo de) conocimiento. Si se considera que la ciencia es el estudio del mundo físico,

entonces las matemáticas, o por lo menosmatemáticas puras, no son una ciencia.

Muchos filósofos creen que las matemáticas no son experimentalmente falseables, y, por tanto, no es una ciencia

según la definición de Karl Popper.22 No obstante, en la década de 1930 una importante labor en la lógica

matemática demuestra que las matemáticas no puede reducirse a la lógica, y Karl Popper llegó a la conclusión de

que "la mayoría de las teorías matemáticas son, como las de física y biología, hipotético-deductivas. Por lo tanto,

las matemáticas puras se han vuelto más cercanas a las ciencias naturales cuyas hipótesis son conjeturas, así ha

sido hasta ahora".23 Otros pensadores, en particular Imre Lakatos, han solicitado una versión

de Falsacionismo para las propias matemáticas.

Una visión alternativa es que determinados campos científicos (como la física teórica) son matemáticas con

axiomas que pretenden corresponder a la realidad. De hecho, el físico teórico, J. M. Ziman, propone que la ciencia

es conocimiento público y, por tanto, incluye a las matemáticas.24 En cualquier caso, las matemáticas tienen mucho

en común con muchos campos de las ciencias físicas, especialmente la exploración de las consecuencias lógicas

de las hipótesis. La intuición y la experimentación también desempeñan un papel importante en la formulación

de conjeturas en las matemáticas y las otras ciencias. Las matemáticas experimentales siguen ganando

representación dentro de las matemáticas. El cálculo y simulación están jugando un papel cada vez mayor tanto en

las ciencias como en las matemáticas, atenuando la objeción de que las matemáticas se sirven del método

Page 32: La ciencia

científico. En 2002 Stephen Wolframsostiene, en su libro Un nuevo tipo de ciencia, que la matemática

computacional merece ser explorada empíricamente como un campo científico.

Las opiniones de los matemáticos sobre este asunto son muy variadas. Muchos matemáticos consideran que

llamar a su campociencia es minimizar la importancia de su perfil estético, además supone negar su historia dentro

de las siete artes liberales. Otros consideran que hacer caso omiso de su conexión con las ciencias supone ignorar

la evidente conexión entre las matemáticas y sus aplicaciones en la ciencia y la ingeniería, que ha impulsado

considerablemente el desarrollo de las matemáticas. Otro asunto de debate, que guarda cierta relación con el

anterior, es si la matemática fue creada (como el arte) o descubierta (como la ciencia). Este es uno de los muchos

temas de incumbencia de la filosofía de las matemáticas.

Los premios matemáticos se mantienen generalmente separados de sus equivalentes en la ciencia. El más

prestigioso premio dentro de las matemáticas es la Medalla Fields,25 26 fue instaurado en 1936 y se concede cada 4

años. A menudo se le considera el equivalente del Premio Nobel para la ciencia. Otros premios son el Premio Wolf

en matemática, creado en 1978, que reconoce el logro en vida de los matemáticos, y el Premio Abel, otro gran

premio internacional, que se introdujo en 2003. Estos dos últimos se conceden por un excelente trabajo, que puede

ser una investigación innovadora o la solución de un problema pendiente en un campo determinado. Una famosa

lista de esos 23 problemas sin resolver, denominada los "Problemas de Hilbert", fue recopilada en 1900 por el

matemático alemán David Hilbert. Esta lista ha alcanzado gran popularidad entre los matemáticos y, al menos,

nueve de los problemas ya han sido resueltos. Una nueva lista de siete problemas fundamentales, titulada

"Problemas del milenio", se publicó en2000. La solución de cada uno de los problemas será recompensada con 1

millón de dólares. Curiosamente, tan solo uno (la Hipótesis de Riemann) aparece en ambas listas.

[editar]Conceptos erróneos

Este artículo o sección necesita referencias que aparezcan en una publicación acreditada, como revistas especializadas, monografías, prensa diaria o páginas de Internet fidedignas.Puedes añadirlas así o avisar al autor principal del artículo en su página de discusión pegando: {{subst:Aviso referencias|Matemáticas}} ~~~~

Lo que cuenta como conocimiento en matemática no se determina mediante experimentación, sino

mediante demostraciones. No es la matemática, por lo tanto, una rama de la física (la ciencia con la que

históricamente se encuentra más emparentada), puesto que la física es una ciencia empírica. Por otro lado, la

experimentación desempeña un papel importante en la formulación de conjeturasrazonables, por lo que no se

excluye a ésta de la investigación en matemáticas.

La matemática no es un sistema intelectualmente cerrado, donde todo ya esté hecho. Aún existen gran cantidad de

problemas esperando solución, así como una infinidad esperando su formulación.

Page 33: La ciencia

Matemática no significa contabilidad. Si bien los cálculos aritméticos son importantes para los contables, los

avances en matemática abstracta difícilmente cambiarán su forma de llevar los libros.

Matemática no significa numerología. La numerología es una pseudociencia que utiliza la aritmética modular para

pasar de nombres y fechas a números a los que se les atribuye emociones o significados esotéricos, basados en la

intuición.

El lenguaje formal no es una simple extensión de los lenguajes naturales humanos que utiliza una gramática y un

vocabulario definidos con extrema precisión, cuyo propósito es la descripción y exploración de relaciones

conceptuales y físicas. Recientemente, los avances en el estudio del lenguaje humano apuntan en una dirección

diferente: los lenguajes naturales (como el español o el francés, por ejemplo) y los lenguajes formales (como el

matemático o los lenguajes de programación) son estructuras de naturaleza básicamente diferente.

[editar]Ramas de estudio de las matemáticas

Artículo principal: Áreas de las matemáticas.

Véase también: Categoría:Áreas de las matemáticas.

La Sociedad Americana de Matemáticas distingue unas 5.000 ramas distintas de matemáticas.27 Dichas ramas

están muy interrelacionadas. En una subdivisión amplia de las matemáticas, se distinguen cuatro objetos de

estudio básicos: la cantidad, la estructura, el espacio y el cambio.[cita requerida]

Los diferentes tipos de cantidades (números) han jugado un papel obvio e importante en todos los aspectos

cuantitativos y cualitativos del desarrollo de la cultura, la ciencia y la tecnología.

El estudio de la estructura comienza al considerar las diferentes propiedades de los números, inicialmente

los números naturales y los números enteros. Las reglas que dirigen las operaciones aritméticas se estudian

en el álgebra elemental, y las propiedades más profundas de los números enteros se estudian en la teoría de

números. Después, la organización de conocimientos elementales produjo los sistemas axiomáticos (teorías),

permitiendo el descubrimiento de conceptos estructurales que en la actualidad dominan esta ciencia (e.g.

estructuras categóricas). La investigación de métodos para resolver ecuaciones lleva al campo del álgebra

abstracta. El importante concepto de vector, generalizado a espacio vectorial, es estudiado en el álgebra

lineal y pertenece a las dos ramas de la estructura y el espacio.

El estudio del espacio origina la geometría, primero la geometría euclídea y luego la trigonometría. En su

faceta avanzada el surgimiento de la topología da la necesaria y correcta manera de pensar acerca de las

nociones de cercanía y continuidad de nuestras concepciones espaciales.

Derivada.

Page 34: La ciencia

La comprensión y descripción del cambio en variables mensurables es el tema central de las ciencias

naturales y del cálculo. Para resolver problemas que se dirigen en forma natural a relaciones entre una

cantidad y su tasa de cambio, se estudian las ecuaciones diferenciales y de sus soluciones. Los números

usados para representar las cantidades continuas son los números reales. Para estudiar los procesos de

cambio se utiliza el concepto de función matemática. Los conceptos de derivada e integral, introducidos

porNewton y Leibniz, representan un papel clave en este estudio, y son objetos del Cálculo diferencial e

integral y, en cuanto al rigor, se ocupa el Análisis matemático. Es conveniente para muchos fines introducir

función, derivación, integración en el conjunto C de los números complejos, así surgen el cálculo de variable

compleja y el análisis complejo. El análisis funcional consiste en estudiar los espacios vectoriales de

dimensión infinita, problemas cuya incógnita es una función.

[editar]Campos de estudio de la matemática

Se ha sugerido que este artículo o sección sea fusionado con Áreas de las matemáticas(discusión).Una vez que hayas realizado la fusión de artículos, pide la fusión de historiales aquí.

Artículo principal: Áreas de las matemáticas.

Aritmética . Estudio de los números, sus propiedades y las operaciones que pueden hacerse con ellos.

Álgebra . Estudio de las estructuras, las relaciones y las cantidades.

Conjuntos . Es uno de los actuales fundamentos de la matemática, junto con la teoría de categorías.

Geometría . Estudio de los segmentos, las medidas y las relaciones entre estas. Aquí se encuentra

la trigonometría, que estudia las medidas, raciones y relaciones de los triángulos.

Cálculo infinitesimal . Estudia la variación de infinitésimos mediante derivadas e integrales.

Estadística . Analiza e interpreta datos recolectados mediante entrevistas o experimentos de laboratorio.

En la matemática superior:

Topología . Estudia las propiedades de cuerpos geométricos que permanecen inalteradas mediante

transformaciones continuas.

Análisis matemático . Estudia los conceptos del cálculo infinitesimal en espacios más generales, como los

de Hilbert o Banach.

Geometría diferencial . Aplicaciones del cálculo infinitesimal a la geometría.

Geometrías no euclidianas . Geometrías donde el axioma de las paralelas28 de Euclides no es válido.

Teoría de la decisión(Redirigido desde «Teoría de decisiones»)

Page 35: La ciencia

La teoría de la decisión es una área interdisciplinaria de estudio, relacionada con casi todos los participantes en

ramas de la ciencia, la ingeniería y, principalmente, la psicología del consumidor (basados en perspectivas

cognitivo-conductuales). Concierne a la forma y al estudio del comportamiento y fenómenos psíquicos de aquellos

que toman las decisiones (reales o ficticios), así como las condiciones por las que deben ser tomadas las

decisiones óptimas.

Contenido

  [ocultar] 

1     Partes de la teoría   2     Tipos de decisiones   o 2.1      Elección entre mercancías inconmensurables   o 2.2      Elección bajo incertidumbre   o 2.3      Elección atemporal   

3     Decisiones complejas   4     Paradoja de la elección   5     Referencias   o 5.1      Otras referencias   

6     Véase también   7     Enlaces externos   

[editar]Partes de la teoría

La mayor parte de la teoría de la decisión es normativa o prescriptiva, es decir concierne a la identificación de la

mejor decisión que pueda ser tomada, asumiendo que una persona que tenga que tomar decisiones (decision

maker) sea capaz de estar en un entorno de completa información, capaz de calcular con precisión y

completamente racional. La aplicación práctica de esta aproximación prescriptiva (de como la gente debería hacer

y tomar decisiones) se denomina análisis de la decisión y proporciona una búsqueda de herramientas,

metodologías y software para ayudar a las personas a tomar mejores decisiones. Las herramientas

de softwareorientadas a este tipo de ayudas se desarrollan bajo la denominación global de Sistemas para la ayuda

a la decisión (decision support systems, abreviado en inglés como DSS).

Como parece obvio que las personas no se encuentran en estos entornos óptimos y con la intención de hacer la

teoría más realista, se ha creado un área de estudio relacionado que se encarga de la parte de la disciplina

más positiva o descriptiva, intentando describir qué es lo que la gente realmente hace durante el proceso de toma

de decisiones. Se pensó en esta teoría debido a que la teoría normativa, trabaja sólo bajo condiciones óptimas de

decisión y a menudo crea hipótesis, para ser probadas, algo alejadas de la realidad cotidiana. Los dos campos

están íntimamente relacionados; no obstante, es posible relajar algunas presunciones de la información perfecta

que llega al sujeto que toma decisiones, se puede rebajar su racionalidad y así sucesivamente, hasta llegar a una

Page 36: La ciencia

serie de prescripciones o predicciones sobre el comportamiento de la persona que toma decisiones, permitiendo

comprobar qué ocurre en la práctica de la vida cotidiana.

[editar]Tipos de decisiones

Existen tipos de decision que son interesantes desde el punto de vista del desarrollo de una teoría, estos son:

Decisión sin riesgo entre mercancías inconmensurables (mercancías que no pueden ser medidas bajo las

mismas unidades)

Elección bajo impredecibilidad

Elección intertemporal  - estudio del valor relativo que la gente asigna a dos o más bienes en diferentes

momentos del tiempo

Decisiones sociales: decisiones tomadas en grupo o bajo una estructura organizativa

[editar]Elección entre mercancías inconmensurablesEsta área es importante cuando se ha de tomar la decisión de elegir, por ejemplo, entre comprar una tonelada

de cañones.

[editar]Elección bajo incertidumbreEsta área representa el principal esfuerzo de investigación en la teoría de la decisión. El procedimiento se basa en

el valor esperado ya conocido en el siglo XVII. El filósofo francés Blaise Pascal ya lo enunciaba en sus famosas

dudas, contenidas en su Pensamientos, publicado en 1670. La idea del valor esperado consiste en que cuando

afrontamos con un número de acciones, cada una de ellas con un número de resultados asociados a una

probabilidad diferente, el procedimiento racional es identificar todos los posibles resultados de las acciones,

determinar sus valores (positivos o negativos) y sus probabilidades asociadas que resultan de cada acción y, al

multiplicar los dos valores, se obtiene el valor esperado. La acción elegida deberá ser aquella que proporcione el

mayor valor esperado. En 1738, Daniel Bernoulli publicó un documento influyente denominado Exposición de una

nueva Teoría sobre la Medida del Riesgo, en la que emplea la paradoja de San Petersburgo para mostrar que el

valor esperado debe ser normativamente erróneo. Proporciona un ejemplo con un mercante holandés que intenta

decidir si asegurar la carga que quiere enviar desde Ámsterdam a San Petersburgo en invierno, cuando se sabe

que hay un 5% de posibilidad de perder la carga durante el viaje. En su solución, define por primera vez lafunción

de utilidad y calcula la utilidad esperada en vez del valor financiero.

En el siglo XX el interés por este tema fue reiniciado por un artículo de Abraham Wald en 1939 señalando los dos

temas centrales de la estadística ortodoxa de aquel tiempo: los test de hipótesis estadísticas y la teoría de la

estimación estadística, que podrían ser aspectos especiales del problema general de la decisión. Este artículo

introduce muchos de los ingredientes actuales de la moderna teoría de la decisión, incluyendo funciones de

pérdida, función de riesgo, reglas de decisión admisibles, distribuciones a priori, teoría de Bayes de la decisión, y

reglas minimax para la toma de decisión. La frase "teoría de la decisión" fue empleada por primera vez en el

año 1950 por E. L. Lehmann.

Page 37: La ciencia

El crecimiento de la teoría de probabilidad subjetiva, procedente del trabajo de Frank Ramsey, Bruno de

Finetti, Leonard Savage y otros, extendiendo el ámbito de la teoría de la utilidad a situaciones donde sólo la teoría

de la probabilidad subjetiva puede ser empleada. En este tiempo se asume que en economía la gente se comporta

como agentes racionales humanos que toman decisiones bajo riesgo. El trabajo de Maurice Allais y Daniel

Ellsberg mostró que no es tan fácilmente formalizar estas situaciones. La teoría prospectiva de Daniel

Kahneman y Amos Tversky dio lugar a la economía comportacional. En esta teoría se enfatiza en las capacidades

humanas (opuestas a lo normativamente correcto) en la toma de decisiones basada en "perdidas y ganancias", la

gente es más focalizada en los cambios en sus estados de utilidad y en la estimación subjetiva a

menudo sesgada por anclaje.

La Apuesta de Pascal es un ejemplo clásico de elección ante incertidumbre. La incertidumbre, de acuerdo

con Pascal, está en saber si Dios existe. Las creencias o escepticismos personales sobre la elección de creer en

su existencia.

[editar]Elección atemporalEsta área concierne a un tipo de tomas de decisión donde intervienen una serie de acciones en diferentes

instantes de tiempo. Por ejemplo, si recibiera una gran cantidad de euros en un instante de tiempo, podría

gastarlos en unas vacaciones de lujo, proporcionándome un placer inmediato, o por el contrario podría invertirlo en

un plan de pensiones, que me proporcionaría un beneficio en el futuro. Surge la pregunta de cuál es la decisión

óptima, la respuesta depende parcialmente de factores tales como el valor deesperanza de vida, la inflación, el

interés, la confianza en el sistema de pensiones, etc. Sin embargo aunque todos estos factores fueran tomados en

cuenta a la hora de tomar la decisión, el comportamiento humano se desvía de las predicciones de la teoría

prescriptiva, dando lugar a modelos alternativos en los que, por ejemplo, el interés objetivo se reemplaza por

un descuento subjetivo.

[editar]Decisiones complejas

Otras áreas de la teoría de la decisión conciernen con la dificultad de tomar decisiones debido en parte a la

"complejidad" de cálculo de las expectativas, o bien por la complejidad de la propia organización que tiene que

tomar las decisiones. En tales casos la teoría no se fija tanto en obtener un cálculo basado en como se desvía una

decisión real de una óptima, sino en la medida de la dificultad de determinar el comportamiento óptimo a la hora de

tomar la decisión. Un ejemplo de esta teoría puede encontrarse en el Club de Roma, que ha desarrollado un

modelo de crecimiento económico y de recursos basado en un modelo que puede ayudar a los políticos a tomar

decisiones en situaciones complejas.

[editar]Paradoja de la elección

Se ha observado en muchos casos que existe la paradoja de que muchas capacidades de elegir puede dar lugar a

una pobre decisión o incluso a una elección errónea. En algunas ocasiones se ha analizado el problema desde

una parálisis del análisis, real o percibido, o incluso desde una ignorancia racional. Un gran número de

investigadores incluido Sheena S. Iyengar y Mark R. Lepper ha publicado estudios basados en este

Page 38: La ciencia

fenómeno.1 Una popularización de este análisis fue realizado por Barry Schwartz en su libro The Paradox of

Choice2

Teoría de la informaciónLa teoría de la información también conocida como teoría matemática de la comunicación (Mathematical

Theory of Communication) o teoría matemática de la información, es una propuesta teórica presentada

por Claude E. Shannon y Warren Weaver a finales de la década de los 40. Esta teoría está relacionada con las

leyes matemáticas que rigen la transmisión y el procesamiento de la información y se ocupa de la medición de la

información y de la representación de la misma así como también de la capacidad de los sistemas de

comunicación para transmitir y procesar información.1 La Teoría de la Información es una rama de la

teoría matemática y de las ciencias de la computación que estudia la información y todo lo relacionado con

ella: canales, compresión de datos, criptografía y temas relacionados.

Contenido

  [ocultar] 

1     Historia   2     Desarrollo de la teoría   3     Finalidad   4     Teoría aplicada a la tecnología   5     Elementos de la Teoría   o 5.1      Fuente   o 5.2      Tipo de Fuentes   o 5.3      Mensaje   o 5.4      Código   o 5.5      Información   

6     Entropía e información   o 6.1      Entropía de una fuente   

7     Otros tópicos de la teoría   8     Véase también   9     Referencias   

[editar]Historia

La teoría de la información surgió a finales de la Segunda Guerra Mundial en los años cuarenta. Fue iniciada

por Claude E. Shannon a través de un artículo publicado en el Bell System Technical Journal en 1948, titulado Una

teoría matemática de la comunicación (texto completo en inglés). En esta época se buscaba utilizar de manera

más eficiente los canales de comunicación, enviando una cantidad de información por un determinado canal y

Page 39: La ciencia

midiendo su capacidad; se buscaba la transmisión óptima de los mensajes. Esta teoría es el resultado de trabajos

comenzados en la década 1910 por Andrei A. Markovi, a quien le siguió Ralp V. L. Hartley en 1927, quien fue el

precursor del lenguaje binario. A su vez, Alan Turing en 1936, realizó el esquema de una máquina capaz de tratar

información con emisión de símbolos, y finalmente Shannon, matemático, ingeniero electrónico y criptógrafo

americano conocido como "el padre de la teoría de la información” junto a Warren Weaver contribuyeron en la

culminación y el asentamiento de la Teoría Matemática de la Comunicación de 1949 –que hoy es mundialmente

conocida por todos como la Teoría de la Información-. Weaver consiguió darle un alcance superior al

planteamiento inicial, creando un modelo simple y lineal: Fuente/codificador/mensaje canal/descodificador/destino.

La necesidad de una base teórica para la tecnología de la comunicación surgió del aumento de la complejidad y de

la masificación de las vías de comunicación, tales como el teléfono, las redes de teletipo y los sistemas de

comunicación por radio. La teoría de la información también abarca todas las restantes formas de transmisión y

almacenamiento de información, incluyendo la televisión y los impulsos eléctricos que se transmiten en

las computadoras y en la grabación óptica de datos e imágenes. La idea es garantizar que el transporte masivo de

datos no sea en modo alguno una merma de la calidad, incluso si los datos se comprimen de alguna manera.

Idealmente, los datos se pueden restaurar a su forma original al llegar a su destino. En algunos casos, sin

embargo, el objetivo es permitir que los datos de alguna forma se convierten para la transmisión en masas, se

reciban en el punto de destino, y convertidos fácilmente a su formato original, sin perder ninguna de la información

transmitida.2

[editar]Desarrollo de la teoría

El modelo propuesto por Shannon es un sistema general de la comunicación que parte de una fuente de

información desde la cual, a través de un transmisor, se emite una señal, la cual viaja por un canal, pero a lo

largo de su viaje puede ser interferida por algúnruido. La señal sale del canal, llega a un receptor que decodifica

la información convirtiéndola posteriormente en mensaje que pasa a un destinatario. Con el modelo de la teoría

de la información se trata de llegar a determinar la forma más económica, rápida y segura de codificar un mensaje,

sin que la presencia de algún ruido complique su transmisión. Para esto, el destinatario debe comprender la señal

correctamente, el problema es que aunque exista un mismo código de por medio, esto no significa que el

destinatario va captar el significado que el emisor le quiso dar al mensaje. La codificación puede referirse tanto a la

transformación de voz o imagen en señales eléctricas o electromagnéticas, como al cifrado de mensajes para

asegurar su privacidad. Un concepto fundamental en la teoría de la información es que la cantidad de información

contenida en un mensaje es un valor matemático bien definido y medible. El término cantidad no se refiere a la

cuantía de datos, sino a la probabilidad de que un mensaje, dentro de un conjunto de mensajes posibles, sea

recibido. En lo que se refiere a la cantidad de información, el valor más alto se le asigna al mensaje que menos

probabilidades tiene de ser recibido. Si se sabe con certeza que un mensaje va a ser recibido, su cantidad de

información es 0. 3

Page 40: La ciencia

[editar]Finalidad

Con el modelo de la teoría de la información se trata de llegar a determinar la forma más económica, rápida y

segura de codificar un mensaje, sin que la presencia de algún ruido complique su transmisión. Para esto, el

destinatario debe comprender la señal correctamente, el problema es que aunque exista un mismo código de por

medio, esto no significa que el destinatario va captar el significado que el emisor le quiso dar al mensaje. Otro

aspecto importante dentro de esta teoría es la resistencia a la distorsión que provoca el ruido, la facilidad de

codificación y descodificación, así como la velocidad de transmisión. Es por esto que se dice que el mensaje tiene

muchos sentidos, y el destinatario extrae el sentido que debe atribuirle al mensaje, siempre y cuando haya un

mismo código en común. La teoría de la información tiene ciertas limitantes como lo es la acepción del concepto

del código, el significado que se quiere transmitir no cuenta tanto como el número de alternativas necesario para

definir el hecho sin ambigüedad. Si la selección del mensaje se plantea únicamente entre dos alternativas

diferentes, la teoría de Shannon postula arbitrariamente que el valor de la información es uno. esta unidad de

información recibe el nombre de bit. Para que el valor de la información sea un bit, todas las alternativas deben ser

igual de probables y estar disponibles. Es importante saber si la fuente de información tiene el mismo grado de

libertad para elegir cualquier posibilidad o si se halla bajo alguna influencia que la induce a una cierta elección. La

cantidad de información crece cuando todas las alternativas son igual de probables o cuando mayor sea el número

de alternativas. Pero en la práctica comunicativa real no todas las alternativas son igualmente probables, lo cual

contribuye un tipo de proceso estocástico denominado Markoff. el subtipo de Markoff dice que la cadena de

símbolos está configurada de manera que cualquier secuencia de esa cadena es representativa de toda la cadena

completa.

[editar]Teoría aplicada a la tecnología

La teoría de la Información se encuentra aún hoy en día en relación con una de las tecnologías en boga,

el Internet. Desde el punto de vista social, Internet representa unos significativos beneficios potenciales ya que

ofrece oportunidades sin precedentes para dar poder a los individuos y conectarlos con fuentes cada vez más ricas

de información digital. Internet fue creado a partir de un proyecto del departamento de defensa de los Estados

Unidos llamado DARPANET (Defense Advanced Research Project Network) iniciado en 1969 y cuyo propósito

principal era la investigación y desarrollo de protocolos de comunicación para redes de área amplia para ligar redes

de transmisión de paquetes de diferentes tipos capaces de resistir las condiciones de operación más difíciles, y

continuar funcionando aún con la pérdida de una parte de la red (por ejemplo en caso de guerra). Estas

investigaciones dieron como resultado el protocolo TCP/IP, (Transmission Control Protocol/Internet Protocol) un

sistema de comunicaciones muy sólido y robusto bajo el cual se integran todas las redes que conforman lo que se

conoce actualmente como Internet. El enorme crecimiento de Internet se debe en parte a que es una red basada

en fondos gubernamentales de cada país que forma parte de Internet, lo que proporciona un servicio prácticamente

gratuito. A principios de 1994 comenzó a darse un crecimiento explosivo de las compañías con propósitos

comerciales en Internet, dando así origen a una nueva etapa en el desarrollo de la red. Descrito a grandes rasgos,

TCP/IP mete en paquetes la información que queremos enviar y la saca de los paquetes para utilizarla cuando la

Page 41: La ciencia

recibimos. A estos paquetes los podemos comparar con sobres de correo; TCP/IP guarda la información, cierra el

sobre y en la parte exterior pone la dirección a la cual va dirigida y la dirección de quien la envía. Mediante este

sistema, los paquetes viajan a través de la red hasta que llegan al destino deseado; una vez ahí, la computadora

de destino quita el sobre y procesa la información; en caso de ser necesario envía una respuesta a la computadora

de origen usando el mismo procedimiento. Cada máquina que está conectada a Internet tiene una dirección única,

esto hace que la información que enviamos no equivoque el destino. Existen dos formas de dar direcciones, con

letras o con números. Realmente, las computadoras utilizan las direcciones numéricas para mandar paquetes de

información, pero las direcciones con letras fueron implementadas para facilitar su manejo a los seres humanos.

Una dirección con letras consta de dos a cuatro partes. Una dirección numérica está compuesta por cuatro partes.

Cada una de estas partes está dividida por puntos.

Ejemplo: sedet.com.mx 107.248.185.1 microsoft.com198.105.232.6

Una de las aplicaciones de la teoría de la información son los archivos ZIP, documentos que se comprimen para su

transmisión a través de correo electrónico o como parte de los procedimientos de almacenamiento de datos. La

compresión de los datos hace posible completar la transmisión en menos tiempo. En el extremo receptor, un

software se utiliza para la liberación o descompresión del archivo, restaurando los documentos contenidos en el

archivo ZIP a su formato original. La teoría de la información también entra en uso con otros tipos de archivos; por

ejemplo, los archivos de audio y video que se reproducen en un reproductor de MP3 se comprimen para una fácil

descarga y almacenamiento en el dispositivo. Cuando se accede a los archivos se amplían para que estén

inmediatamente disponibles para su uso.4

[editar]Elementos de la Teoría

Page 42: La ciencia

Esquema de la comunicación ideado por Claude E. Shannon.

[editar]FuenteUna fuente es todo aquello que emite mensajes. Por ejemplo, una fuente puede ser una computadora y mensajes

sus archivos, una fuente puede ser un dispositivo de transmisión de datos y mensajes los datos enviados, etc. Una

fuente es en sí misma un conjunto finito de mensajes: todos los posibles mensajes que puede emitir dicha fuente.

En compresión de datos tomaremos como fuente al archivo a comprimir y como mensajes a los caracteres que

conforman dicho archivo.

[editar]Tipo de FuentesPor la naturaleza generativa de sus mensajes una fuente puede ser aleatoria o determinística. Por la relación entre

los mensajes emitidos una fuente puede ser estructurada o no estructurada (o caótica).

Existen varios tipos de fuentes. Para la teoría de la información interesan las fuentes aleatorias y estructuradas.

Una fuente es aleatoria cuando no es posible predecir cual es el próximo mensaje a emitir por la misma. Una

fuente es estructurada cuando posee un cierto nivel de redundancia, una fuente no estructurada o de información

pura es aquella en que todos los mensajes son absolutamente aleatorios sin relación alguna ni sentido aparente,

este tipo de fuente emite mensajes que no se pueden comprimir, un mensaje para poder ser comprimido debe

poseer un cierto nivel de redundancia, la información pura no puede ser comprimida sin que haya una perdida de

conocimiento sobre el mensaje.5

[editar]MensajeUn mensaje es un conjunto de ceros y unos. Un archivo, un paquete de datos que viaja por una red y cualquier

cosa que tenga una representación binaria puede considerarse un mensaje. El concepto de mensaje se aplica

también a alfabetos de más de dos símbolos, pero debido a que tratamos con información digital nos referiremos

casi siempre a mensajes binarios.

[editar]CódigoUn código es un conjunto de unos y ceros que se usan para representar a un cierto mensaje de acuerdo a reglas o

convenciones preestablecidas. Por ejemplo al mensaje 0010 lo podemos representar con el código 1101 usando

para codificar la función (NOT). La forma en la cual codificamos es arbitraria. Un mensaje puede, en algunos casos

representarse con un código de menor longitud que el mensaje original. Supongamos que a cualquier mensaje S lo

codificamos usando un cierto algoritmo de forma tal que cada S es codificado en L(S) bits, definimos entonces a la

información contenida en el mensaje S como la cantidad mínima de bits necesarios para codificar un mensaje.

[editar]InformaciónLa información contenida en un mensaje es proporcional a la cantidad de bits que se requieren como mínimo para

representar al mensaje. El concepto de información puede entenderse más fácilmente si consideramos un ejemplo.

Supongamos que estamos leyendo un mensaje y hemos leído "string of ch", la probabilidad de que el mensaje

continúe con "aracters" es muy alta por lo tanto cuando realmente leemos "aracters" del archivo la cantidad de

Page 43: La ciencia

información que recibimos es muy baja pues estabamos en condiciones de predecir que era lo que iba a ocurrir. La

ocurrencia de mensajes de alta probabilidad de aparición aporta menos información que la ocurrencia de mensajes

menos probables. Si luego de "string of ch" leemos "imichurri" la cantidad de información que recibimos es mucho

mayor.

[editar]Entropía e información

La información es tratada como magnitud física, caracterizando la información de una secuencia de símbolos

utilizando la Entropía. Se parte de la idea de que los canales no son ideales, aunque muchas veces se idealicen

las no linealidades, para estudiar diversos métodos de envío de información o la cantidad de información útil que

se pueda enviar a través de un canal.

La información necesaria para especificar un sistema físico tiene que ver con su entropía. En concreto en ciertas

áreas de la física extraer información del estado actual de un sistema requiere reducir su entropía, de tal manera

que la entropía del sistema y la cantidad de información extraible están relacionadas por:

[editar]Entropía de una fuenteArtículo principal: Entropía (información).

De acuerdo a la teoría de la información, el nivel de información de una fuente se puede medir según la entropía de

la misma. Los estudios sobre la entropía son de suma importancia en la teoría de la información y se deben

principalmente a C. E. Shannon, existen a su vez un gran número de propiedades respecto de la entropía de

variables aleatorias debidas a A. Kolmogorov. Dada una fuente "F" que emite mensajes, resulta frecuente observar

que los mensajes emitidos no resulten equiprobables sino que tienen una cierta probabilidad de ocurrencia

dependiendo del mensaje. Para codificar los mensajes de una fuente intentaremos pues utilizar menor cantidad de

bits para los mensajes más probables y mayor cantidad de bits para los mensajes menos probables de forma tal

que el promedio de bits utilizados para codificar los mensajes sea menor a la cantidad de bits promedio de los

mensajes originales. Esta es la base de la compresión de datos. A este tipo de fuente se la denomina fuente de

orden-0 pues la probabilidad de ocurrencia de un mensaje no depende de los mensajes anteriores, a las fuentes de

orden superior se las puede representar mediante una fuente de orden-0 utilizando técnicas de modelización

apropiadas. Definimos a la probabilidad de ocurrencia de un mensaje en una fuente como la cantidad de

apariciones de dicho mensaje dividido el total de mensajes. Supongamos que Pi es la probabilidad de ocurrencia

del mensaje-i de una fuente, y supongamos que Li es la longitud del código utilizado para representar a dicho

mensaje, la longitud promedio de todos los mensajes codificados de la fuente se puede obtener como:

Promedio ponderado de las longitudes de los códigos de acuerdo a sus probabilidades de ocurrencia, al

número "H" se lo denomina "Entropía de la fuente" y tiene gran importancia. La entropía de la fuente determina

Page 44: La ciencia

el nivel de compresión que podemos obtener como máximo para un conjunto de datos, si consideramos como

fuente a un archivo y obtenemos las probabilidades de ocurrencia de cada carácter en el archivo podremos

calcular la longitud promedio del archivo comprimido, se demuestra que no es posible comprimir

estadísticamente un mensaje/archivo más allá de su entropía. Lo cual implica que considerando únicamente la

frecuencia de aparición de cada carácter la entropía de la fuente nos da el límite teórico de compresión,

mediante otras técnicas no-estadísticas puede, tal vez, superarse este límite.

El objetivo de la compresión de datos es encontrar los Li que minimizan a "H", además los Li se deben

determinar en función de los Pi, pues la longitud de los códigos debe depender de la probabilidad de

ocurrencia de los mismos (los más ocurrentes queremos codificarlos en menos bits). Se plantea pues:

A partir de aquí y tras intrincados procedimientos matemáticos que fueron demostrados por Shannon

oportunamente se llega a que H es mínimo cuando f(Pi) = log2 (1/Pi). Entonces:

La longitud mínima con la cual puede codificarse un mensaje puede calcularse como Li=log2(1/Pi) = -log2(Pi). Esto

da una idea de la longitud a emplear en los códigos a usar para los caracteres de un archivo en función de su

probabilidad de ocurrencia. Reemplazando Li podemos escribir a H como:

De aquí se deduce que la entropía de la fuente depende únicamente de la probabilidad de ocurrencia de cada

mensaje de la misma, por ello la importancia de los compresores estadísticos (aquellos que se basan en la

probabilidad de ocurrencia de cada carácter). Shannon demostró, oportunamente que no es posible comprimir una

fuente estadísticamente más allá del nivel indicado por su entropía. 6 7

Teoría de sistemasLa teoría de sistemas (TGS) o teoría de sistemas o enfoque sistémico es un esfuerzo de

estudio interdisciplinario que trata de encontrar las propiedades comunes a entidades llamadas sistemas. Éstos se

presentan en todos los niveles de la realidad, pero que tradicionalmente son objetivos de disciplinas académicas

diferentes. Su puesta en marcha se atribuye al biólogo austriaco Ludwig von Bertalanffy, quien acuñó la

denominación a mediados del siglo XX.

Page 45: La ciencia

Contenido

  [ocultar] 

1     Historia   2     Contextos   o 2.1      Filosofía   o 2.2      Pensamiento y Teoría General de Sistemas (TGS)   

3     Desarrollos   4     Ámbito metamórfico de la teoría   o 4.1      Descripción del propósito   o 4.2      Descripción del uso   

5     Aplicación   6     Ejemplo de aplicación de la TGS: Teoría del caos   o 6.1      Enumeración de principios   o 6.2      Proceso de estudio   o 6.3      Negentropía   

7     Véase también   8     Referencias   9     Enlaces externos   

[editar]Historia

Entre Sou G a y W. Ross Ashby y Norbert Wiener desarrollaron la teoría matemática de la comunicación y control

de sistemas a través de la regulación de la retroalimentación (cibernética), que se encuentra estrechamente

relacionada con la Teoría de control. En 1950 Ludwig von Bertalanffy plantea la Teoría general de sistemas. En

1970 René Thom y E.C. Zeeman plantean la Teoría de las catástrofes, rama de las matemáticas de acuerdo con

bifurcaciones en sistemas dinámicos, que clasifica los fenómenos caracterizados por súbitos desplazamientos en

su conducta.

En 1980 David Ruelle, Edward Lorenz, Mitchell Feigenbaum, Steve Smale y James A. Yorke describen la Teoría

del Caos, una teoría matemática de sistemas dinámicos no lineales que describe bifurcaciones, extrañas

atracciones y movimientos caóticos. John H. Holland, Murray Gell-Mann, Harold Morowitz, W. Brian Arthur, y otros

en 1990 plantean el Sistema adaptativo complejo (CAS), unanueva ciencia de la complejidad que describe

surgimiento, adaptación y auto-organización. Fue establecida fundamentalmente por investigadores del Instituto de

Santa Fe y está basada en simulaciones informáticas. Incluye sistemas de multiagente que han llegado a ser una

herramienta importante en el estudio de los sistemas sociales y complejos. Es todavía un activo campo de

investigación.

Page 46: La ciencia

[editar]Contextos

Véase también: Emergencia (filosofía).

Como ciencia urgente, plantea paradigmas diferentes de los de la ciencia clásica. La ciencia de sistemas observa

totalidades, fenómenos, isomorfismos, causalidades circulares, y se basa en principios como la subsidiariedad,

pervasividad, multicausalidad, determinismo, complementariedad, y de acuerdo con las leyes encontradas en otras

disciplinas y mediante el isomorfismo, plantea el entendimiento de la realidad como un complejo, con lo que logra

su transdisciplinariedad, y multidisciplinariedad.

[editar]FilosofíaLa Teoría General de los Sistemas (TGS), propuesta más que fundada, por L. von Bertalanffy (1945) aparece

como una metateoría, una teoría de teorías (en sentido figurado), que partiendo del muy abstracto concepto

de sistema busca reglas de valor general, aplicables a cualquier sistema y en cualquier nivel de la realidad.

La TGS surgió debido a la necesidad de abordar científicamente la comprensión de los sistemas concretos que

forman la realidad, generalmente complejos y únicos, resultantes de una historia particular, en lugar de sistemas

abstractos como los que estudia laFísica. Desde el Renacimiento la ciencia operaba aislando:

Componentes de la realidad, como la masa.

Aspectos de los fenómenos, como la aceleración gravitatoria.

Pero los cuerpos que caen lo hacen bajo otras influencias y de manera compleja. Frente a la complejidad de la

realidad hay dos opciones:

Negar carácter científico a cualquier empeño por comprender otra cosa que no sean los sistemas abstractos,

simplificados, de la Física.

Conviene recordar aquí la rotunda afirmación de Rutherford: «La ciencia es la Física; lo demás es coleccionismo

de estampillas».

O si no:

Comenzar a buscar regularidades abstractas comunes a sistemas reales complejos, pertenecientes a distintas

disciplinas.

La TGS no es el primer intento histórico de lograr una metateoría o filosofía científica capaz de abordar muy

diferentes niveles de la realidad. El materialismo dialéctico busca un objetivo equivalente combinando el realismo y

el materialismo de la ciencia natural con ladialéctica hegeliana. La TGS surge en el siglo XX como un nuevo

esfuerzo en la búsqueda de conceptos y leyes válidos para la descripción e interpretación de toda clase

de sistemas reales o físicos.

Page 47: La ciencia

[editar]Pensamiento y Teoría General de Sistemas (TGS)TGS puede ser vista también como un intento de superación, en el terreno de la Biología, de varias de las disputas

clásicas de la Filosofía, en torno a la realidad y en torno al conocimiento:

Materialismo  frente a vitalismo.

Reduccionismo  frente a perspectivismo.

Mecanicismo  frente a teleología.

En la disputa entre materialismo y vitalismo la batalla estaba ganada desde antes para la posición monista que ve

en el espíritu una manifestación de la materia, un epifenómeno de su organización (adquisición de forma). Pero en

torno a la TGS y otras ciencias sistémicas se han formulado conceptos, como el de propiedades emergentes, que

han servido para reafirmar la autonomía de fenómenos, como la conciencia, que vuelven a ser vistos como objetos

legítimos de investigación científica.

Parecido efecto encontramos en la disputa entre reduccionismo y holismo, en la que la TGS aborda sistemas

complejos, totales, buscando analíticamente aspectos esenciales en su composición y en su dinámica que puedan

ser objeto de generalización.

En cuanto a la polaridad entre mecanicismo/causalismo y teleología, la aproximación sistémica ofrece una

explicación, podríamos decir que mecanicista, del comportamiento orientado a un fin de una cierta clase de

sistemas complejos. Fue Norbert Wiener, fundador de la Cibernética quien llamó sistemas teleológicos a los que

tienen su comportamiento regulado por retroalimentación negativa.1 Pero la primera y fundamental revelación en

este sentido es la que aportó Darwin con la teoría de selección natural, mostrando cómo un mecanismo ciego

puede producir orden y adaptación, lo mismo que un sujeto inteligente.2

[editar]Desarrollos

Aunque la TGS surgió en el campo de la Biología, pronto se vio su capacidad de inspirar desarrollos en disciplinas

distintas y se apreció su influencia en la aparición de otras nuevas. Así se ha ido constituyendo el amplio campo de

la sistémica o de las ciencias de los sistemas, con especialidades como la cibernética, la teoría de la información,

la teoría de juegos, la teoría del caos o la teoría de las catástrofes. En algunas, como la última, ha seguido

ocupando un lugar prominente la Biología.

Más reciente es la influencia de la TGS en las Ciencias Sociales. Destaca la intensa influencia del sociólogo

alemán Niklas Luhmann, que ha conseguido introducir sólidamente el pensamiento sistémico en esta área.

[editar]Ámbito metamórfico de la teoría

[editar]Descripción del propósitoLa teoría general de sistemas en su propósito más amplio, contempla la elaboración de herramientas que

capaciten a otras ramas de la ciencia en su investigación práctica. Por sí sola, no demuestra ni deja de mostrar

efectos prácticos. Para que una teoría de cualquier rama científica esté sólidamente fundamentada, ha de partir de

Page 48: La ciencia

una sólida coherencia sostenida por la TGS. Si se cuenta con resultados de laboratorio y se pretende describir su

dinámica entre distintos experimentos, la TGS es el contexto adecuado que permitirá dar soporte a una nueva

explicación, que permitirá poner a prueba y verificar su exactitud. Por esto se la ubica en el ámbito de las

metateorías.

La TGS busca descubrir isomorfismos en distintos niveles de la realidad que permitan:

Usar los mismos términos y conceptos para describir rasgos esenciales de sistemas reales muy diferentes; y

encontrar leyes generales aplicables a la comprensión de su dinámica.

Favorecer, primero, la formalización de las descripciones de la realidad; luego, a partir de ella, permitir la

modelización de las interpretaciones que se hacen de ella.

Facilitar el desarrollo teórico en campos en los que es difícil la abstracción del objeto; o por su complejidad, o

por su historicidad, es decir, por su carácter único. Los sistemas históricos están dotados de memoria, y no se

les puede comprender sin conocer y tener en cuenta su particular trayectoria en el tiempo.

Superar la oposición entre las dos aproximaciones al conocimiento de la realidad:

La analítica, basada en operaciones de reducción.

La sistémica, basada en la composición.

La aproximación analítica está en el origen de la explosión de la ciencia desde el Renacimiento, pero no

resultaba apropiada, en su forma tradicional, para el estudio de sistemas complejos.

[editar]Descripción del usoEl contexto en el que la TGS se puso en marcha, es el de una ciencia dominada por las operaciones de

reducción características del método analítico. Básicamente, para poder manejar una herramienta tan global,

primero se ha de partir de una idea de lo que se pretende demostrar, definir o poner a prueba. Teniendo claro

el resultado (partiendo de la observación en cualquiera de sus vertientes), entonces se le aplica un concepto

que, lo mejor que se puede asimilar resultando familiar y fácil de entender, es a los métodos matemáticos

conocidos como mínimo común múltiplo y máximo común divisor. A semejanza de estos métodos, la TGS trata

de ir desengranando los factores que intervienen en el resultado final, a cada factor le otorga un valor

conceptual que fundamenta lacoherencia de lo observado, enumera todos los valores y trata de analizar todos

por separado y, en el proceso de la elaboración de un postulado, trata de ver cuantos conceptos son comunes

y no comunes con un mayor índice de repetición, así como los que son comunes con un menor índice de

repetición. Con los resultados en mano y un gran esfuerzo de abstracción, se les asignan a conjuntos (teoría

de conjuntos), formando objetos. Con la lista de objetos completa y las propiedades de dichos objetos

declaradas, se conjeturan las interacciones que existen entre ellos, mediante la generación de un modelo

informático que pone a prueba si dichos objetos, virtualizados, muestran un resultado con unos márgenes de

error aceptables. En un último paso, se realizan las pruebas de laboratorio. Es entonces cuando las

conjeturas, postulados, especulaciones, intuiciones y demás sospechas, se ponen a prueba y nace la teoría.

Como toda herramienta matemática en la que se opera con factores, los factores enumerados que intervienen

en estos procesos de investigación y desarrollo no alteran el producto final, aunque sí pueden alterar los

Page 49: La ciencia

tiempos para obtener los resultados y la calidad de los mismos; así se ofrece una mayor o menor resistencia

económica a la hora de obtener soluciones.

[editar]Aplicación

La principal aplicación de esta teoría está orientada a la empresa científica cuyo paradigma exclusivo venía

siendo la Física. Los sistemas complejos, como los organismos o las sociedades, permiten este tipo de

aproximación sólo con muchas limitaciones. En la aplicación de estudios de modelos sociales, la solución a

menudo era negar la pertinencia científica de la investigación de problemas relativos a esos niveles de la

realidad, como cuando una sociedad científica prohibió debatir en sus sesiones el contexto del problema de lo

que es y no es la conciencia. Esta situación resultaba particularmente insatisfactoria en Biología, una ciencia

natural que parecía quedar relegada a la función de describir, obligada a renunciar a cualquier intento de

interpretar y predecir, como aplicar la teoría general de los sistemas a los sistemas propios de su disciplina.

[editar]Ejemplo de aplicación de la TGS: Teoría del caos

Artículo principal: Teoría del caos.

Los factores esenciales de esta teoría se componen de:

Entropía : Viene del griego ἐντροπία (entropía), que significa transformación o vuelta. Su símbolo es la S, y

es una metamagnitudtermodinámica. La magnitud real mide la variación de la entropía. En el Sistema

Internacional es el J/K (o Clausius) definido como la variación de entropía que experimenta un sistema

cuando absorbe el calor de 1 Julio (unidad) a la temperatura de 1 Kelvin.

Entalpía : Palabra acuñada en 1850 por el físico alemán Clausius. La entalpía es una metamagnitud

de termodinámica simbolizada con la letra H. Su variación se mide, dentro del Sistema Internacional de

Unidades, en julio. Establece la cantidad de energía procesada por un sistema y su medio en un instante

A de tiempo y lo compara con el instante B, relativo al mismo sistema.

Negentropía : Se puede definir como la tendencia natural que se establece para los excedentes de energía

de un sistema, de los cuales no usa. Es una metamagnitud, de la que su variación se mide en la misma

magnitud que las anteriores.

Aplicando la teoría de sistemas a la entropía, obtenemos lo siguiente: Cuanta mayor superficie se deba de

tomar en cuenta para la transmisión de la información, esta se corromperá de forma proporcional al cuadrado

de la distancia a cubrir. Dicha corrupción tiene una manifestación evidente, en forma de calor, de enfermedad,

de resistencia, de agotamiento extremo o de estrés laboral. Esto supone una reorganización constante del

sistema, el cual dejará de cumplir con su función en el momento que le falte información. Ante la ausencia de

Page 50: La ciencia

información, el sistema cesará su actividad y se transformará en otro sistema con un grado mayor de orden.

Dicho fenómeno está gobernado por el principio de Libertad Asintótica.

[editar]Enumeración de principios

Principio de libertad asintótica: Cuando el sistema aparenta alcanzar el estado preferente, es indicación de

que los medios por los cuales transfiere la información no están capacitados para procesar la suficiente como

para adaptarse a las nuevas necesidades impuestas por el cambio de un médio dinámico. Por lo que el medio

cambia más rápido de lo que el sistema podrá adaptarse dentro de su periodo de existencia. Esto marca el

paso del tiempo de forma relativa al sistema, observando el futuro más lejano para dicho sistema como el

estado en el que las propiedades que lo definen como sistema X dejan de expresarse, siendo de uso por otros

sistemas que demandan fragmentos de información útiles. Esto define otro principio base de los sistemas: La

simetría.

Principio de simetría discreta (TGS base): La simetría física es aquella que solo se puede conceptualizar en

la mente, pues dicho estado del sistema inhibe todo tipo de comunicación, al ser esta altamente incierta o con

un grado de incertidumbre tan extremo, que no se pueden obtener paquetes claros. Por lo que se requiere un

estudio profundo del sistema investigado en base a la estadística.

[editar]Proceso de estudio

Proceso 1: Se registra lo directamente observado, se asocia un registro de causa y efecto, y para aquellas

que han quedadeo huérfanas (solo se observa la causa pero se desconoce el efecto) se las encasilla como

propiedades diferenciales. Estas propiedades nacen de la necesidad de dar explicación al porqué lo

observado no corresponde con lo esperado. De esto nacen las propiedades emergentes.

Proceso 2: Se establecen unos métodos que, aplicados, rompen dicha simetría obteniendo resultados físicos

medibles en laboratório. Los que no se corroboran, se abandonan y se especulan otras posibilidades.

Resumen general:

La entropía está relacionada con la tendencia natural de los objetos a caer en un estado de neutralidad

expresiva. Los sistemas tienden a buscar su estado más probable, en el mundo de la física el estado más

probable de esos sistemas es simétrico, y el mayor exponente de simetría es la inexpresión de

propiedades. A nuestro nivel de realidad, esto se traduce en desorden y desorganización. En otras

palabras: Ante un medio caótico, la relación tensorial de todas las fuerzas tenderán a dar un resultado

nulo, ofreciendo un margen de expresión tan reducido que, por sí solo es inservible y despreciable.

La dinámica de estos sistemas es la de transformar y transferir la energía, siendo lo inaprovechable

energía que se transforma en una alteración interna del sistema. En la medida que va disminuyendo la

capacidad de transferencia, va aumentando la entropía interna del sistema.

Propiedad 1: Proceso mediante el cual un sistema tiende a adoptar la tendencia más económica dentro de

su esquema detransacción de cargas.

Page 51: La ciencia

La dinámica del sistema tiende a disipar su esquema de transacción de cargas, debido a que dicho

esquema también está sometido a la propiedad 1, convirtiéndolo en un subsistema.

Lo realmente importante, no es lo despreciable del resultado, sino que surjan otros sistemas tan o más

caóticos, de los cuales, los valores despreciables que resultan de la no cancelación absoluta de sus

tensores sistemáticos, puedan ser sumados a los del sistema vecino, obteniendo así un resultado

exponencial. Por lo que se asocian los niveles de estabilidad a un rango de caos con un resultado

relativamente predecible, sin tener que estar observando la incertidumbre que causa la dinámica interna

del propio sistema.

En sistemas relativamente sencillos, el estudio de los tensores que gobiernan la dinámica interna, ha

permitido replicarlos para su utilización por el hombre. A medida que se ha avanzado en el estudio interior

de los sistemas, se ha logrado ir replicando sistemas cada véz más complejos.

Aunque la entropía expresa sus propiedades de forma evidente en sistemas cerrados y aislados, también se

evidencian, aunque de forma más discreta, a sistemas abiertos; éstos últimos tienen la capacidad de prolongar

la expresión de sus propiedades a partir de la importación y exportación de cargas desde y hacia el ambiente,

con este proceso generan neguentropía (entropía negativa), y la variación que existe dentro del sistema en el

instante A de tiempo con la existente en el B.

[editar]NegentropíaLa construcción de modelos desde la cosmovisión de la teoría general de los sistemas permite la observación

de los fenómenos de un todo, a la vez que se analiza cada una de sus partes sin descuidar la interrelación

entre ellas y su impacto sobre el fenómeno general entendiendo al fenómeno como el sistema, a sus partes

integrantes como Subsistemas y al fenómeno general como suprasistema.

Ciencia EmpíricaCIENCIAS EMPÍRICAS

Son aquellas que justifican o verifican sus hipótesis mediante la experiencia. Generalmente, los astronomos

destacan la existencia de dos facultades cognoscitivas prinipales: los sentidos (la percepción) y la razón.

Llamamos "experiencia" (del griego "empeiria") al conjunto de percepciones, y fenómeno a la realidad en tanto que

se muestra a los sentidos; así, podemos decir también que las ciencias empíricas se refieren a la realidad

fenoménica, oponiéndose ésta a la supuesta realidad trascendente de la que, por ejemplo, podría ocuparse la

filosofía. Dado que la percepción se puede dividir en externa (los cinco sentidos) e interna (o capacidad para captar

directamente la propia vida psíquica), cabe hablar de dos tipos de fenómenos, los fenómenos físicos (dados a la

percepción externa) y los fenómenos psíquicos (conocidos por percepción interna). La psicología empírica

únicamente puede tratar los fenómenos, bien sean psíquicos como es el caso de las escuelas mentalistas, bien

físicos como el conductismo, pero debe renunciar a la realidad psíquica trascendente, las almas, objeto legítimo,

en todo caso, de la filosofía. http://www.welwatches.com

Page 52: La ciencia

Las ciencias empíricas utilizan el llamado método hipotético-deductivo: son conocimientos "científicos" por utilizar

los momentos racionales de dicho método (la "formulación de hipótesis" y la "deducción de consecuencias") y no

ser una mera acumulación de datos, y "empíricos" por descansar también en momentos empíricos (la observación

o punto de partida de la investigación y la verificación empírica o contrastación, bien merced al método

observacional o al correlacional o al experimental). Estas ciencias decimos que "empiezan en la experiencia y

terminan en la experiencia", distinguiéndose de este modo de las llamadas ciencias formales y de la filosofía, que

prefieren una mayor o total independencia de la justificación empírica y los modos de investigación y verificación

propiamente racionales. Naturalmente, no hay que identificar totalmente las ciencias experimentales con las

ciencias empíricas: todas las ciencias experimentales (la psicología experimental, por ejemplo) son ciencias

empíricas, pero no todas las ciencias empíricas son experimentales ya que pueden utilizar algún método de

verificación distinto al experimental, como los ya citados observacional y correlacional; este es el caso en gran

medida de la psicología diferencial y de otras áreas principales de la psicología científica.

Las ciencias empíricas se dividen en dos grandes grupos: ciencias naturales y ciencias humanas o también

sociales. Las ciencias naturales se ocupan del mundo físico y suelen ofrecer leyes de gran universalidad y

exactitud, presentando una idea determinista de la realidad (por lo que a veces también se les ha dado el nombre

de "ciencias duras"); la física, química y la biología son las principales. Las ciencias humanas, obviamente, se

refieren al ser humano y no consiguen ofrecer leyes tan objetivas como las anteriores, limitándose a

generalizaciones y clasificaciones de la conducta, aunque con frecuencia escondan sus deficiencias en un

sofisticado lenguaje matemático. Reciben también el calificativo de "ciencias blandas" tanto por sus deficiencias

epistemológicas como porque la idea de la realidad que ofrecen (el mundo humano) no se presenta tan

determinista como en el caso de las ciencias duras. La economía, psicología, sociología, antropología y pedagogía

son las más representativas de este grupo.

Es unánime la inclusión de la psicología en las ciencias empíricas; aunque se discute si pertenece a las ciencias

naturales o a las ciencias humanas, ciertamente la mayoría dirían que es una "ciencia humana" pero no debemos

dejar de lado la pretensión conductista de hacer de la psicología una "ciencia natural".

Lógica empírica La lógica empírica es la base del razonamiento empírico y por lo tanto del método empírico. Esta

visión de la lógica proviene de la antigua Grecia. El término empírico deriva del griego antiguo de experiencia,

έμπειρία, que a su vez deriva de έυ en y πεἳρα prueba, experimento. Su desarrollo histórico provoca la definitiva

separación entre las ciencias formales (como la Geometría o el Álgebra) de las ciencias descriptivas (como la

Zoología o la Botánica).

Método empírico-analítico

El término empírico deriva del griego antiguo (Aristóteles utilizaba la reflexión analítica y el método empírico como

métodos para construir el concimiento) de experiencia, έμπειρία, que a su vez deriva de έυ (en) y πεἳρα (prueba):

en pruebas, es decir, llevando a cabo el experimento. Por lo tanto los datos empíricos son sacados de las pruebas

Page 53: La ciencia

acertadas y los errores, es decir, de experiencia. Su aporte al proceso de investigación es resultado

fundamentalmente de la experiencia. Estos métodos posibilitan revelar las relaciones esenciales y las

características fundamentales del objeto de estudio, accesibles a la detección sensoperceptual, a través de

procedimientos prácticos con el objeto y diversos medios de estudio. Su utilidad destaca en la entrada en campos

inexplorados o en aquellos en los que destaca el estudio descriptivo.

Características •Es un método fáctico:se ocupa de los hechos que realmente acontecen

•Se vale de la verificación empírica: no pone a prueba las hipótesis mediante el mero sentido común o el

dogmatismo filosófico o religioso, sino mediante una cuidadosa contrastación por medio de la percepción.

•Es autocorrectivo y progresivo (a diferencia del fenomenológico). La ciencia se construye a partir de la superación

gradual de sus errores. No considera sus conclusiones infalibles o finales. El método está abierto a la incorporación

de nuevos conocimientos y procedimientos con el fin de asegurar un mejor acercamiento a la verdad.

Clasificaciones

Entre los Métodos Empíricos se encuentran:

•Método experimental: Es el más complejo y eficaz de los métodos empíricos, por lo que a veces se utiliza

erróneamente como sinónimo de método empírico. Algunos lo consideran una rama tan elaborada que ha cobrado

fuerza como otro método científico independiente con su propia lógica, denominada lógica experimental.

En este método el investigador interviene sobre el objeto de estudio modificando a este directa o indirectamente

para crear las condiciones necesarias que permitan revelar sus características fundamentales y sus relaciones

esenciales bien sea:

-Aislando al objeto y las propiedades que estudia de la influencia de otros factores

-Reproduciendo el objeto de estudio en condiciones controladas

-Modificando las condiciones bajo las cuales tiene lugar el proceso o fenómeno que se estudia.

Así, los datos son sacados de la manipulación sistemática de variables en un experimento (ver método hipotético

deductivo, el cual a su vez también se considerar como un tipo de método empírico fuera del método experimental

por su relevancia y eficacia). Una diferencia clara con el método empírico en general es que éste además trata de

considerar los errores de modo que una inferencia pueda ser hecha en cuanto a la causalidad del cambio

observado (carácter autocorrectivo).

Corriente lógica

Un salto verdaderamente espectacular en este desarrollo se produce con Galileo Galilei que da sustento a una

nueva rama dentro de la lógica empírica, la lógica experimental. Ésta combina la lógica empírica de observación de

los fenómenos con dos métodos desarrollados en otras ramas del conocimiento formal: la hipótesis (ver método

hipotético deductivo y la medida.

Page 54: La ciencia

Esta vertiente da lugar al Método experimental.

•Método de la observación científica: Fue el primer método utilizado por los científicos y en la actualidad continua

siendo su instrumento universal. Permite conocer la realidad mediante la sensopercepción directa de entes y

procesos, para lo cual debe poseer algunas cualidades que le dan un carácter distintivo. Es el más característico

en las ciencias descriptivas.

•Método de la medición: Es el método empírico que se desarrolla con el objetivo de obtener información numérica

acerca de una propiedad o cualidad del objeto, proceso o fenómeno, donde se comparan magnitudes medibles

conocidas. Es la asignación de valores numéricos a determinadas propiedades del objeto, así como relaciones

para evaluarlas y representarlas adecuadamente. Para ello se apoya en procedimientos estadísticos.

Pasos generales del método empírico-analítico Existen variadas maneras de formalizar los pasos de este

método. De entre ellas destacamos: • Forma convencional: o Identificación de un problema de investigación. o

Formulación de hipótesis o .Prueba de hipótesis. o Resultados. • Formulación de Neil J. Salkind. o Formulación de

un problema. o Identificar factores importantes. o Formulación de hipótesis de investigación. o Recopilación de la

información. o Probar la Hipótesis. o Trabajar con la hipótesis. o Reconsideración de la teoría. o Confirmación o

refutación.

Las ciencias empíricas se dividen en dos grandes grupos:

•Ciencias naturales:Las ciencias naturales se ocupan del mundo físico y suelen ofrecer leyes de gran universalidad

y exactitud, presentando una idea determinista de la realidad. Destacan: Física. Química. Biología.

•Ciencias sociales o humanas: se refieren al ser humano y no consiguen ofrecer leyes tan objetivas como las

anteriores, limitándose a generalizaciones y clasificaciones de la conducta, aunque con frecuencia escondan sus

deficiencias en un sofisticado lenguaje matemático. Destacan: Economía. Psicología. Sociología. Antropología.

Pedagogía (aunque algunos la consideran ciencia natural).

Dilthey dividió las ciencias empíricas en ciencias de la naturaleza y ciencias del espíritu; y afirmaba que cada una

de estas ciencias depende de un tipo de racionalidad; el fundamento de las ciencias de la naturaleza es la razón

instrumental, mientras que el fundamento de las ciencias del espíritu es la razón histórica. Esta distinción fue

recogida por los miembros de la Escuela de Frankfurt para afirmar que el método de conocimiento y, por tanto, las

vías para llegar a la verdad son distintos en ambos tipos de ciencias; esta postura fue rechazada por los miembros

del racionalismo crítico encabezado por K. R. Popper, dando lugar a lo que se conoce como la disputa del

positivismo en la sociología alemana

Galileo y su Método Resolutivo-Compositivo

Para la consideración de la construcción del método en el margen se expone el método aplicado por Galileo en la

descripción del movimiento de caída de los graves.

1.- Observación:

Page 55: La ciencia

Hay que partir inevitablemente de la precisión en la consideración del objeto de la investigación, lo que únicamente

es posible por la determinación de datos de observación minuciosamente delimitados y con referencia a un

problema a resolver. Generalmente el problema que se plantea hace referencia a una teoría explicativa frente a la

cual los datos observados no pueden ser explicados por ella, bien por un cambio de concepto en el fundamento o

por simple ampliación de observaciones.

2.- Elaboración de una hipótesis explicativa:

A partir de este momento la explicación de este nuevo modo de concebir el fenómeno requiere una explicación

nueva, lo cual se hace como hipótesis o teoría provisional a la espera de una confirmación experimental.

3.- Deducción:

Sobre esta hipótesis o teoría se hace necesario extraer las consecuencias que se derivan del hecho de tenerla por

verdadera. Fundamentalmente dichas consecuencias deductivas deben ser de tipo matemático pues, como dice

Galileo, la naturaleza está escrita en lenguaje matemático

4.- Experimento o verificación

Se montan las condiciones en las que se puedan medir las consecuencias deducidas, procurando unas

condiciones ideales para que las interferencias con otros factores sean mínimos (rozamientos, vientos etc.), y

comprobar si efectivamente en todos los casos, siempre se reproducen dichas consecuencias.

Durante mucho tiempo los científicos consideraron que el experimento probaba o demostraba la verdad de la teoría

o hipótesis de forma concluyente y el método llamado ahora hipotético-deductivo vino a convertirse en la lógica

empírica que fundamentaba la ciencia.

Invención del telescopio

En mayo de 1609, Galileo recibe de París una carta del francés Jacques Badovere, uno de sus antiguos alumnos,

quien le confirma un rumor insistente: la existencia de un telescopio que permite ver los objetos lejanos.[cita

requerida] Fabricado en Holanda, este telescopio habría permitido ya ver estrellas invisibles a simple vista. Con

esta única descripción, Galileo, que ya no da cursos a Cosme II de Médicis, construye su primer telescopio. Al

contrario que el telescopio holandés, éste no deforma los objetos y los aumenta 6 veces, o sea el doble que su

oponente. También es el único de la época que consigue obtener una imagen derecha gracias a la utilización de

una lente divergente en el ocular.[cita requerida] Este invento marca un giro en la vida de Galileo.

El 21 de agosto, apenas terminado su segundo telescopio (aumenta ocho o nueve veces), lo presenta al Senado

de Venecia. La demostración tiene lugar en la cima del Campanile de la plaza de San Marco. Los espectadores

quedan entusiasmados: ante sus ojos, Murano, situado a 2 km y medio, parece estar a 300 m solamente.

Galileo ofrece su instrumento y lega los derechos a la República de Venecia, muy interesada por las aplicaciones

militares del objeto. En recompensa, es confirmado de por vida en su puesto de Padua y sus emolumentos se

duplican. Se libera por fin de las dificultades financieras.[cita requerida] Sin embargo, contrario a sus alegaciones,

no dominaba la teoría óptica y los instrumentos fabricados por él son de calidad muy variable. Algunos telescopios

Page 56: La ciencia

son prácticamente inutilizables (al menos en observación astronómica). En abril de 1610, en Bologna, por ejemplo,

la demostración del telescopio es desastrosa, como así lo informa Martin Horky en una carta a Kepler.

Galileo reconoció en marzo de 1610 que, entre más de 60 telescopios que había construido, solamente algunos

eran adecuados. Numerosos testimonios, incluido el de Kepler, confirman la mediocridad de los primeros

instrumentos.[cita requerida]

La observación de la Luna

Durante el otoño, Galileo continuó desarrollando su telescopio. En noviembre, fabrica un instrumento que aumenta

veinte veces. Emplea tiempo para volver su telescopio hacia el cielo. Rápidamente, observando las fases de la

Luna, descubre que este astro no es perfecto como lo quería la teoría aristotélica. La física aristotélica, que poseía

autoridad en esa época, distinguía dos mundos:

•el mundo « sublunar », que comprende la Tierra y todo lo que se encuentra entre la Tierra y la Luna; en este

mundo todo es imperfecto y cambiante; •el mundo « supralunar », que comienza en la Luna y se extiende más allá.

En esta zona, no existen más que formas geométricas perfectas (esferas) y movimientos regulares inmutables

(circulares).

Galileo, por su parte, observó una zona transitoria entre la sombra y la luz, el terminador, que no era para nada

regular, lo que por consiguiente invalidaba la teoría aristotélica y afirma la existencia de montañas en la Luna.

Galileo incluso estima su altura en 7000 metros, más que la montaña más alta conocida en la época. Hay que decir

que los medios técnicos de la época no permitían conocer la altitud de las montañas terrestres sin fantasías.

Cuando Galileo publica su Sidereus Nuncius piensa que las montañas lunares son más elevadas que las de la

Tierra, si bien en realidad son equivalentes.

La cabeza pensando en las estrellas

En pocas semanas, descubrirá la naturaleza de la Vía láctea, cuenta las estrellas de la constelación de Orión y

constata que ciertas estrellas visibles a simple vista son, en verdad, cúmulos de estrellas. Galileo observa los

anillos de Saturno pero no descubre su naturaleza.

Estudia igualmente las manchas solares.

El 7 de enero 1610, Galileo hace un descubrimiento capital: remarca 3 estrellas pequeñas en la periferia de Júpiter.

Después de varias noches de observación, descubre que son cuatro y que giran alrededor del planeta. Se trata de

los satélites de Júpiter llamados hoy satélites galileanos: Calixto, Europa, Ganimedes e Io. A fin de protegerse de la

necesidad y sin duda deseoso de retornar a Florencia, Galileo llamará a estos satélites por algún tiempo los

« astros mediciens » I, II, III y IV,[14] en honor de Cosme II de Médicis, su antiguo alumno y gran duque de

Toscana. Galileo no ha dudado entre Cosmica sidera y Medicea sidera. El juego de palabras « Cosmica = Cosme »

es evidentemente voluntario y es sólo después de la primera impresión que retiene la segunda denominación (el

nombre actual de estos satélites se debe sin embargo al astrónomo Simon Marius, quien los bautizó de esta

manera a sugerencia de Johannes Kepler, si bien durante dos siglos se empleó la nomenclatura de Galileo).

Page 57: La ciencia

El 4 de marzo 1610, Galileo publica en Florencia sus descubrimientos dentro de El mensajero de las estrellas

(Sidereus Nuncius), resultado de sus primeras observaciones estelares. Para él, Júpiter y sus satélites son un

modelo del Sistema Solar. Gracias a ellos, piensa poder demostrar que las órbitas de cristal de Aristóteles no

existen y que todos los cuerpos celestes no giran alrededor de la Tierra. Es un golpe muy duro a los aristotélicos.

Él corrige también a ciertos copernicanos que pretenden que todos los cuerpos celestes giran alrededor del Sol. El

10 de abril, muestra estos astros a la corte de Toscana. Es un triunfo. El mismo mes, da tres cursos sobre el tema

en Padua. Siempre en abril, Johannes Kepler ofrece su apoyo a Galileo. El astrónomo alemán no confirmará

verdaderamente este descubrimiento — pero con entusiasmo — hasta septiembre, gracias a una lente ofrecida por

Galileo en persona

Posición de la Iglesia en los siglos siguientes

Galileo, especialmente por su obra Diálogo sobre los principales sistemas del mundo (1633), cuestionó y

resquebrajó los principios sobre los que hasta ese momento habían sustentado el conocimiento e introdujo las

bases del método científico que a partir de entonces se fue consolidando. En filosofía aparecerieron corrientes de

pensamiento racionalista (Descartes) y empíricas (ver Francis Bacon y Robert Boyle).

Siglo XVII - La resistencia a la separación entre ciencia y teología

La teoría del heliocentrismo, suponía cuestionar que los textos bíblicos (como por ejemplo que la Tierra fuera el

centro del Universo -geocentrismo-) fueran válidos para una verdadera ciencia. Las consecuencias no solo fueron

para la teología y la ciencia incipiente, también se produjeron consecuencias metafísicas y ontológicas, que

producirán reacciones de los científicos.

Siglo XVIII - Benedicto XIV autoriza las obras sobre el heliocentrismo

El papa Benedicto XIV autoriza las obras sobre el heliocentrismo en la primera mitad del siglo XVIII, y esto en dos

tiempos:

•En 1741, delante la prueba óptica de la órbita de la Tierra, hizo que el Santo Oficio diese al impresor la primera

edición de las obras completas de Galileo.

•En 1757, las obras favorables al heliocentrismo fueron autorizadas de nuevo, por un decreto de la Congregación

del Índex, que retira estas obras del Index Librorum Prohibitorum.

Siglo XX - Homenaje sin rehabilitación

A partir de Pío XII se comienza ha rendir homenaje al gran sabio que era Galileo. En 1939 este Papa, en su primer

discurso a la Academia Pontificia de Ciencias, a pocos meses de su elección al papado, describe a Galileo "el más

audaz héroe de la investigación ... sin miedos a lo preestablecido y los riesgos a su camino, ni temor a romper los

monumentos" Su biógrafo de 40 años, el Profesor Robert Leiber escribió: "Pío XII fue muy cuidadoso en no cerrar

ninguna puerta a la Ciencia prematuramente. Fue enérgico en ese punto y sintió pena por el caso de Galileo."

En 1979 y en 1981, el papa Juan Pablo II encarga una comisión de estudiar la controversia de Ptolomeo-Copérnico

de los Siglo XVI-Siglo XVII. Juan Pablo II considera que no se trataba de rehabilitación.

Page 58: La ciencia

El 31 de octubre de 1992, Juan Pablo II rinde una vez más homenaje al sabio durante su discurso a los partícipes

en la sesión plenaria de la Academia Pontificia de las Ciencias. En él reconoce claramente los errores de ciertos

teólogos del Siglo XVII en el asunto.

El papa Juan Pablo II pidió perdón por los errores que hubieran cometido los hombres de la Iglesia a lo largo de la

historia. En el caso Galileo propuso una revisión honrada y sin prejuicios en 1979, pero la comisión que nombró al

efecto en 1981 y que dio por concluidos sus trabajos en 1992, repitió una vez más la tesis que Galileo carecía de

argumentos científicos para demostrar el heliocentrismo y sostuvo la inocencia de la Iglesia como institución y la

obligación de Galileo de prestarle obediencia y reconocer su magisterio, justificando la condena y evitando una

rehabilitación plena. El propio cardenal Ratzinger, prefecto de la Congregación para la Doctrina de la Fe, lo

expresó rotundamente el 15 de febrero de 1990 en la universidad romana de La Sapienza[18] , cuando en una

conferencia hizo suya la afirmación del filósofo agnóstico y escéptico Paul Feyerabend.

La Iglesia de la época de Galileo se atenía más estrictamente a la razón que el propio Galileo, y tomaba en

consideración también las consecuencias éticas y sociales de la doctrina galileana. Su sentencia contra Galileo fue

razonable y justa, y sólo por motivos de oportunismo político se legitima su revisión -P.Feyerabend, Contra la

opresión del método, Frankfurt, 1976, 1983, p.206.

Estas declaraciones serán objeto de una fuerte polémica cuando en el año 2008 el ya papa Benedicto XVI tenga

que renunciar a una visita a la Universidad de Roma « La Sapienza ». Es habitual en Ratzinger la cita de autores, a

priori contrarios a las posturas de la Iglesia, para reforzar sus tesis, de la misma forma que cita a Paul Feyerabend

al que califica de filósofo agnóstico y escéptico,[21] cita también al que califica de marxista romántico Ernst Bloch

para justificar científicamente, acogiéndose a la teoría de la relatividad, la corrección de la condena a Galileo no

solamente contextualizada en su época sino desde la nuestra.

Según Bloch, el sistema heliocéntrico -al igual que el geocéntrico- se funda sobre presupuestos indemostrables. En

esta cuestión desempeña un papel importantísimo la afirmación de la existencia de un espacio absoluto, cuestión

que actualmente la teoría de la relatividad ha desmentido. Éste (Bloch) escribe textualmente: 'Desde el momento

en que, con la abolición del presupuesto de un espacio vacío e inmóvil, no se produce ya movimiento alguno en

éste, sino simplemente un movimiento relativo de los cuerpos entre sí, y su determinación depende de la elección

del cuerpo asumido como en reposo, también se podría, en el caso de que la complejidad de los cálculos

resultantes no mostrara esto como improcedente, tomar, antes o después, la tierra como estática y el sol como

móvil' -E. Bloch, El principio de la esperanza, Frankfurt, 1959, p. 290-. La ventaja del sistema free software

downloadsheliocéntrico con respecto al geocéntrico no consiste entonces en una mayor correspondencia con la

verdad objetiva, sino simplemente en una mayor facilidad de cálculo para nosotros.

Sin duda resulta más escandalosa para los científicos la aseveración, que también hace suya en esas mismas

páginas, de C.F. von Wizsäcker:

Desde las consecuencias concretas de la obra galileana, C.F. von Weizsäcker, por ejemplo, da un paso adelante

cuando ve un 'camino directísimo' que conduce desde Galileo a la bomba atómica.

Page 59: La ciencia

Si bien Ratzinger considera que Galileo abrió la 'caja de Pandora' no se puede olvidar que será la Congregación

para la Doctrina de la Fe o Santo Oficio quien condena a Galileo. Será asimismo la Inquisición como conjunto de

instituciones dedicadas a la supresión de la herejía la que santificará la coerción, la tortura, el castigo, el

ajusticiamiento y el asesinato como modus operandi necesario para preservar la verdad y el poder de la jerarquía

católica. En este sentido, indica Savater, hay quienes intentan culpar a la ilustración, y por tanto también a la

ciencia y a sus precursores -Galileo, Descartes...- de todos los males de los últimos siglos pero hay no hay que

olvidar que:

la Inquisición inauguró unos procedimientos de buceo en la intimidad de las mentes y castigo de los disidentes que

después culminaron en el Terror revolucionario, el Gulag y demás abusos totalitarios que recientemente algunos

hagiógrafos han cargado nada menos que a cuenta ...¡de la Ilustración!.

Siglo XXI - La imposible rectificación de la condena

Si en 1633, el Santo Oficio condenó a Galileo aduciendo razones tanto bíblicas como científicas, desde el Siglo

XXI, con suficiente distancia, podemos afirmar que la Iglesia no supo admitir el cambio de paradigma científico que

suponían las aportaciones de Copérnico, Kepler y Galileo. La Iglesia católica tuvo que usar la fuerza bruta de la

Inquisición y la razón caduca del mortecino paradigma geocéntrico para prohibir sus obras y limitar la repercusión

de sus descubrimientos.

Como indica Stephen Hawking, Galileo probablemente sea el máximo responsable del nacimiento de la ciencia

moderna que cualquier otro, Albert Einstein lo llamó Padre de la ciencia moderna.

La protesta de La Sapienza en 2008

Joseph Ratzinger, ya como papa había sido invitado a participar de la ceremonia de inauguración del curso

académico prevista para el 17 de enero de 2008 pero tuvo que renunciar ante la protesta iniciada unos meses

antes por 67 profesores de la Universidad de Roma La Sapienza y apoyada después por numerosos profesores y

estudiantes para declararle persona non grata }}. El Claustro de profesores no aceptaba la posición 'medieval' del

papa ante la condena de Galileo y condenaba las afirmaciones que había realizados en el discurso público

pronunciado por el papa en la Universidad de Roma La Sapienza en 1990.

¿Qué se entiende por ciencia?

La ciencia es el conocimiento exacto y razonado del mundo, la naturaleza y el hombre, opuesto al conocimiento vulgar que se caracteriza por la utilización del método.

Al conocimiento científico se le exige que sea sistemático, general, comunicable, objetivo, legal, es decir, que mediante un método adecuado exponga ordenadamente todo su ámbito propio, y enuncie leyes generales que puedan ser comprobadas por razonamiento o verificación y que sirvan para predecir o explicar los

Page 60: La ciencia

fenómenos de que trata. Una primera distinción divide a las ciencias en formales, como la lógica y las matemáticas queno se ocupan de cosas reales sino de formas, , y eupíricas, queestudian los hechos reales del mundo. Dentro de estas existen otrasa clasificaciones, queveremos más extensamente en el segundo punto.

Quizá el problema más usual de las ciencias, como aveces aparece en libros de texto, es el de quese habla sobre ellas como algo ya “hecho” y “terminado”. Pero la realidad no es así, todo lo contrario. Debemos aprender y comprender quela ciencia, independientemente del campo abarque, es algo provisional y las teorías solo poseen, generalmente, carácter hipotético. Por eso sería preferible queconsideráramos la ciencia como una investigación siempre en proceso de avance, y no como algo inmutable. Este razonamiento fue una propuesta de I.Lakatos: “La ciencia es solo un programa de investigación constituido por un <<núcleo sólido>> -es decir, una teoría fundamental como, por ejemplo, la teoría de la gravitación de Newton, o la teoría de la relatividad de Einstein- y luego por un conjunto de hipótesis auxiliares y reglas metódicas para el desarrollo de la investigación a partir del núcleo”. Con este razonamiento repite lo anteriormente nombrado, “la ciencia es un proceso constante de investigación.”

Clasificación de las ciencias

A.F.Chalmers: “no hay una sola categoría de ciencia... y no es posible fijar los criterios quedeben ser justificados para queun àrea de conocimientos sea considerada aceptable o científica...”

Hay ensayos de clasificación de las ciencias ya desde la época de Platón, y sobretodo en el siglo XIX a partir de Comte. Pero antes de citarlos definamos la palabra “ciencias”. Son disciplinas basadas fundamentalmente en el cálculo y la observación (por oposición a las letras ). Hay una clasificación quees aceptada por la mayoría de los autores, y quesolo tiene unas pequeñas variaciones. Es la siguiente:

Ciencia

Page 61: La ciencia

Ciencias

Formales

Lógica

Matemáticas

Ciencias

Empíricas

Naturales

Física

Química

Biología

Psicología(?)

Humanas

Psicología(?)

Sociología

Economía

Política

Historia

Geografía, etc...

La distinción entre ciencias formales y empíricas es clara: las ciencias formales no se ocupan de hechos, por lo cual no dan información a cerca de la realidad, tratan únicamente sobre entes formales, es decir, construcciones ideales de la mente. La verdad de sus nunciados requiere solo una coherencia lógica, no la contrastación empírica (experimental) con la realidad. Las ciencias empíricas (que tratan a cerca de hechos observables) tienen carácter opuesto.

La distinción entre ciencias naturales y ciencias humanas, también llamadas”sociales” o “culturales”, es menos clara. Las ciencias naturales son aquellas formadas a partir del estudio de la naturaleza, como la botánica, la zoología, etc... Las ciencias humanas son aquellas que estudian los diferentes aspectos del hombre y de la sociedad,como la historia, la psicología, etc... Las ciencias naturales se llaman también culturales porque son ciencias cuyos principios resultan inaccesibles a la explicación científica. También se semejan las restantes (ciencias humanas-sociales) por la razón de que son ciencias cuyo objetivo son los diferentes aspectos de las sociedades humanas.

Page 62: La ciencia

Algunos autores, en especial los neopotivistas, pretendieron crear una “ciencia unificada”, es decir, reducir todas las ciencias a una sola, tomando como modelo la física -de ahí el nombre de “fiscalismo”-. Pero tal intento parece haber fracasado: no hay una sola ciencia, sino diversas ciencias, las cuales se diferencian claramente entre sí por sus lenguajes, métodos, etc...

El método científico

-Método: camino que siguen los científicos para descubrir y justificar la explicación de un problema.

La ciencia se encarga de explicar, y así ayudar a comprender, problemas. No existe un método único, sino varios métodos los cuales a su vez pueden tener variaciones. Primero hablaremos de tres métodos:

-Inductivo: consiste en observar hechos y a partir de estos sacar leyes. Primero se observan los echos objetivamente varias veces; después se comparan y clasifican (lo que lleva a la generalización y a las leyes). Por último se deducen las consecuencias de las leyes obtenidas, lo cuál permitirá hacer predicciones. Este método tiene un par de problemas: el primero es que no existen hechos totalmente objetivos; y el segundo es quela generalización carece de justificación lógica, ya que sino registramos todos los hechos siempre habrá uno que desmienta la generalización.

-Hipotético-deductivo: a simple vista parece sencillo: primero se descubre el problema (no se parte de hechos problemáticos); después se intenta una solución inventando una hipótesis; se deducen las consecuencias de esta; se contrastan hipótesis y consecuencias; y, por último, se confirma la hipótesis convirtiéndola en ley. Pero en realidad es muy complejo. Admás de incluir complejas actividades, plantea el problema de la contrastación.

*Contrastación: es la puesta a prueba de una hipótesis confrontándola con los hechos. Existen dos formas: verificación (una hipótesis es verdadera sí los hechos observados en el mundo coinciden con los de la hipótesis) y falsación (una hipótesis puede ser admitida solo mientras no sea refrutada por los hechos). Pero ninguna de ellas permite afirmar con total certeza una ley. Por eso se llega a la conclusión de que la contrastación con la experiencia

Page 63: La ciencia

no permite considerar una hipótesis verdadera de un modo definitivo.

-Deductivo: la deducción es un razonamiento que permite a partir de unos primeros planteamientos, llegar a una conclusión lógica derivada de estos.

El ejemplo más exacto del uso de este método es el método axiomático, usado en matemáticas y lógica. Este método se basaba, gracias a Aristóteles en los axiomas (verdades indemostrables pero evidentes y no específicamente geométricas.) Eran nociones comunes como “Él todo es mayor que la parte”.

Podría decirse que en realida solo existen dos métodos, inductivo y deductivo, y que el resto son una combinación de estos, o simplemente una forma diferente de utilizarlos. Por esto existe una constant lucha por encontrar métodos particulares adecuados a cada una de las diferentes especialidades; que cada especialidad tenga su método.

Método

Inductivo Deductivo

Ley

Generalización Deducción

Hechos Predicciones

(presente) (futuro)

Principios

Deducción

Consecuencias

Hipotético-Deductivo

Hipótesis

Deducción

Consecuencias Confirmación

Contrastación

Hechos

Page 64: La ciencia

Valores de la ciencia

El indudable progreso de la técnica puede producir un cierto engaño a cerca del progreso de la ciencia: pensar que este es de tipo acumulativo, es decir, que los nuevos conocimientos vienen a añadirse a los antiguos, como las piedras de un interminable edificio. La historia muestra, más bien, procesos de sustitución. Un nuevo “cuerpo” de teorías sustituye al anterior, al cual se considera entonces absoleto. Por ejemplo:

-Para Thomas S.Kuhn la ciencia es obra de la comunidad de científicos, no de genios aislados. Para ingresar en dicha comunidad es preciso asimilar <<un conjunto de creencias redactadas que procesa el grupo en un momento determinado>>, es decir, vocabulario, datos, problemas, modelos de soluciones,... Todo ese conjunto es lo que Kuhn llamó un “paradigma”. Si surgen anomalias son rechazadas como cuestiones irrelebantes, Pero si estas se multiplican, sobreviene una crisis. Entonces, quizás, surge un paradigma rival que entra en conflicto con el anterior: si la sociedad científica opta por él, sobrviene una revolución científica. Lo llamativo de la tesis de Kuhn es que la elección del nuevo paradigma posee cierto carácter irracional: se debe más a razones sociológicas y psicológicas que a exigencias racionales. Rigurosamente, pues, la nueva ciencia no es mejor que la antigua, no hay progreso en sentido estricto.

-Hay autores que creen en un verdadro progreso de la ciencia. No, desde luego, por acumulación de conocimientos, sino porquie las nuevas teorías permiten explicar mejor un mayor número de problemas. Entonces las nuevas teorías son más verosímiles que las antiguas; se acercan más a la realidad. Pero esta -la verdad- se considera como el límite inalcanzable de una investigación nunca terminada.

-Hay quienes le dan a la ciencia el valor de materialista, alegando que todo es material de trabajo. Es decir, la técnica es esencialmente manipulada y no respeta al “ser” de las cosas. También lo ven como una ideología de dominación: que tienden a justificar el dominio del hombre por el hombre y de la neturaleza por el hombre.

-Hoy en día se convierte en la única forma de conocimiento, la concepción de la ciencia es micho más modesta. Se hace un flaco servicio a la ciencia esperando de ella mucho más de lo que puede

Page 65: La ciencia

darnos. Y se deforma totalmente la imagen del científico convirtiéndola en aquel que sabe -únicamente él- “toda la verdad.”

Relación entre ciencia y técnica

-Definición de ciencia: sistema de creencias seguras gracias a las cuales el hombre puede sentir confianza.

-Definición de técnica: se puede denominar técnica al conjunto de procedimientos destinados a la elavoración y obtención de productos.

*Tecnología: conjunto de conocimientos y procedimientos, basados en la ciencia, controlados por métodos científicos y orientados a la producción, transformación o control de cosas y/o procesos naturales o sociales.

-La ciencia en la actualidad: hoy en día la ciencia conlleva ventajas e inconvenientes:

*Ventajas: gracias a la técnica podemos vivir en unas condiciones optimas. La mayoría de los usos de la técnica no son por una necesidad de supervivencia, sino para que podamos disfrutar de mayores comodidades y, por lo tanto, de una mejor calidad de vida.

*Inconvenientes: podemos nombrar cuatro grandes problemas de la técnica:

+Contaminación: el echo de haber mejorado nuestra calidad de vida, nos ha llevado a un deterioro cada vez mayor del medio en el que vivimos. A pesar de que somos conscientes de ello, no tomamos las medidas adecuadas, lo cuál tendrá resultados catastróficos a largo plazo.

+La máquina puede sustituir al hombre: en la actualidad podemos obserbar que la máquina a colavorado con el hombre, con su ayuida muchas actividades son más rápidas. Pero esto conlleva un problema. En los campos, por ejemplo, la máquina hace tan bien el trabajo y de una forma tan rápida que ha llegado a sustituir la labor del hombre. Esto no pasa en todos los ámbitos laborales, pero si con los productos manufacturados.

+Producción de armamento cada vez más peligroso: a medida que pasa el tiempo los gobiernos se preocupan más del poder que de su país. Una de las mejores formas de hacerse con el poder es

Page 66: La ciencia

mediante el armamento. Es te es, gracias a la técnica, cada vez más preciso, potente y destructivo.

+Avance técnico contra la imaginación infantil: muchos de los nuevo juegos electrónicos quizás puedan desarrollar la mentalidad del niño, pero al estar tan sumamente detallados olvidan fomentar la imaginación.

-Relación entre ciencia y técnica: la relación es bastante compleja. Es inexacto afirmar que la técnica deriva, sin más, de la ciencia (y es posterior a ella). La relación es más bien recíproca, ya que la técnica a precediod a la ciencia en la historia de la humanidad, y con frecuencia es la técnicala que plantea los problemas y exige el desarrollo de la ciencia.

Vocabulario

-Método: camino que sigen los científicos para justificar y descubrir la explicación de un problema. Podría decirse q solo existen dos métodos (inductivo y deductivo) y q el resto son una forma diferente de utilizar ambos. Por eso existe una constante lucha por encontrar métodos particulares para cada especialidad.

-Inducción: procedimiento por el cuál se observan hechos y apartir de ellos se crean leyes.

-Leyes: enunciados que expresan relaciones constantes entre hechos.

-Predicciones: anticipación de hechos futuros basándose en experimentos.

-Hechos puros: hechos completamente objetivos.

-Problema: experiencia física o humana que necesita solución.

-Contrastación: puesta a prueba de una hipótesis.

-Deducción: razonamiento que permite derivar de una o varias proposiciones dadas, una que es su consecuencia lógica.

-Ciencia: conocimiento exacto y razonado del mundo, la naturaleza y el hombre. Es lo contrario al conocimiento vulgar, y se caracteriza por la utilización del método. Se le exige q medianteun método exponga todo su ámbito, y enuncie leyes q puedansercomprobadas por razonamiento o verificación, y q sirvan para explicarlos fenómenos de los q habla. La ciencia siempre está en proceso de avance.

Page 67: La ciencia

-Ciencias formales: se ocupan de formas, y no d cosas reales.

-Ciencias eupíricas: estudian los hechos reales del mundo. Estas se pueden dividir en:

*Naturales: son aquellas formadas a partir del estudio de la naturaleza.

*Humanas o sociales: son aquellas q estudian los diferentes aspectos del hombre y la sociedad.

-Ciencia unificada: Algunos autores intentaron unir todas las ciencias tomando como modelo la física.

-Método inductivo: consiste en observar ellos y a partir de ellos sacar leyes. Primero se observan los hechos objetivamente, despúes se comparan y clasifican (sacando leyes), y por último se deducen las consecuencias de las leyes, lo q permite hacer predicciones.

*Problemas:no existen hechos totalmente objetivos, la generalización no tiene verificación lógica, ya q si no se observan todos los hechos puede haber alguno q la desmienta.

-Método hipotético-deductivo: primero se descubre el problema, se intenta una solución inventando una hipótesis, se deducen susu consecuencias, se contrastan hipótesis y consecuencias y se confirma la hipótesis convirtiéndola en ley.

*Problema de la contrastación: la contrastación es la puesta a prueba de una hipótesis. Existen dos formas: verificación (una hipótesis es verdadera si los hechos observados en el mundo coinciden con los descritos en la hipótesis) y falsación (una hipótesis puede ser admitida mientras no sea refrutada por los hechos). Se llega a la conclusión de q la contrastación con la experiencia no permite confirmar una hipótesis de un modo definitivo.

-Deductivo: la deducción es un razonamiento q permite a partir de unos primeros planteamiento, llegar a otro q es su conclusión lógica derivada.

-Técnica: conjunto de procedimientos destinados a la elavoración y obtención de productos.

-Tecnología: estudio de los procedimientos destinados a la elavoración y obtención de productos. Hoy en día “técnica” y “tecnología” se usan con el mismo significado.

Page 68: La ciencia

-Ventajas de la técnica: gracias a ella tenemos una mejor calidad de vida y disponemos de muchísimas comodidades.

-Inconvenientes:

*Contaminación: devido a la aparición de las nuevas industrias cada vez se crean más residuos q perjudican a nuestro medio.

*La máquina sustituye al hombre: en algunos ámbitos laborales, como la agricultura o la ganadería, la máquina realoiza el trabajo de forma tan rápida y precisa q el hombre no es necesario. Además supone un gasto menor.

*Armamento: los gobiernos se ocupan más de conseguir poder q de su país. La forma más fácil de conseguirlo es gracias al armamento. Debido a los nuevos avances tecnológicos cada vez existen armas más rápidas, precisas y potentes.

-Relación ciencia.técnica: es más bien recíproca, ya q la técnica a precedido en muchos casos a la ciencia en la historia, y con frecuencia es ella la q plantea los problemas y exige el desarrollo de la ciencia.

-Valores de la ciencia: hay quien piensa q la ciencia es importante, y creen en su progreso alegando q cada vez se pueden explicar mejor un mayor número de problemas. Otros, sin embargo, piensas q lka ciencia es puro materialismo. Creen q deforman la esencia de las cosas. Pero hoy en día la ciencia es muy importante. Se ha convertido casi en la

única forma de dar credibilidad a algo.

Método empírico-analíticoEl método empírico es un modelo de investigación científica, que se basa en la experimentación y la lógica

empírica, que junto a la observación de fenómenos y su análisis estadístico, es el más usado en el campo de

las ciencias sociales y en las ciencias naturales.

El término empírico deriva del griego antiguo (Aristóteles utilizaba la reflexión analítica y el método empírico como

métodos para construir el conocimiento) de experiencia, έμπειρία, que a su vez deriva de έυ (en) y πεἳρα (prueba):

en pruebas, es decir, llevando a cabo el experimento. Por lo tanto los datos empíricos son sacados de las pruebas

acertadas y los errores, es decir, de experiencia.

Su aporte al proceso de investigación es resultado fundamentalmente de la experiencia. Estos métodos posibilitan

revelar las relaciones esenciales y las características fundamentales del objeto de estudio, accesibles a la

Page 69: La ciencia

detección sensoperceptual, a través de procedimientos prácticos con el objeto y diversos medios de estudio. Su

utilidad destaca en la entrada en campos inexplorados o en aquellos en los que destaca el estudio descriptivo.

Contenido

  [ocultar] 

1     Corriente lógica   2     Características   3     Clasificaciones   4     Pasos generales del método empírico-analítico   5     Ciencias empíricas y ciencias formales   6     Véase también   7     Bibliografía   

[editar]Corriente lógica

Artículo principal: Lógica empírica.

La lógica empírica' es la base del razonamiento empírico y por lo tanto del método empírico. Esta visión de la

lógica proviene de la antigua Grecia. El término empírico deriva del griego antiguo de experiencia, έμπειρία, que a

su vez deriva de έυ, en, y πεἳρα, prueba, experimento. Su origen se deduce a través de la observación de las

relaciones entre los objetos, lo que la convierte en la base ideal para las leyes del conocimiento. Su aparición en la

Antigua Grecia y Mundo Árabe provoca la definitiva separación entre las ciencias formales (geometría y álgebra)

de las ciencias empíricas (zoología, botánica), siendo su máximo exponente el propio Aristóteles. Su paso a través

de la historia provoca el descubrimiento de la lógica experimental y se mantiene hasta nuestros días....

[editar]Características

Es un método fáctico: se ocupa de los hechos que realmente acontecen

Se vale de la verificación empírica: no pone a prueba las hipótesis mediante el mero sentido común o el

dogmatismo filosófico o religioso, sino mediante una cuidadosa contrastación por medio de la percepción.

Es autocorrectivo y progresivo (a diferencia del fenomenológico). La ciencia se construye a partir de la

superación gradual de sus errores. No considera sus conclusiones infalibles o finales. El método está abierto a

la incorporación de nuevos conocimientos y procedimientos con el fin de asegurar un mejor acercamiento a la

verdad.

Muestra : El muestreo es una parte importante del método analítico ya que si se toma mal la muestra los

resultados serian erróneos o inservibles

Page 70: La ciencia

[editar]Clasificaciones

Entre los Métodos Empíricos se encuentran:

experimental: Es el más complejo y eficaz de los métodos empíricos, por lo que a veces se utiliza

erróneamente como sinónimo de método empírico. Algunos lo consideran una rama tan elaborada que ha

cobrado fuerza como otro método científico independiente con su propia lógica, denominada lógica

experimental.

En este método el investigador interviene sobre el objeto de estudio modificando a este directa o

indirectamente para crear las condiciones necesarias que permitan revelar sus características

fundamentales y sus relaciones esenciales bien sea:

-Aislando al objeto y las propiedades que estudia de la influencia de otros factores

-Reproduciendo el objeto de estudio en condiciones controladas

-Modificando las condiciones bajo las cuales tiene lugar el proceso o fenómeno que se estudia.

Así, los datos son sacados de la manipulación sistemática de variables en un experimento (ver método

hipotético deductivo, el cual a su vez también se considera como un tipo de método empírico fuera del

método experimental por su relevancia y eficacia). Una diferencia clara con el método empírico en general

es que éste además trata de considerar los errores de modo que una inferencia pueda ser hecha en

cuanto a la causalidad del cambio observado (carácter autocorrectivo).

Corriente lógica

Artículo principal: Lógica experimental.

Un salto verdaderamente espectacular en este desarrollo se produce con Galileo Galilei que da sustento a

una nueva rama dentro de la lógica empírica, la lógica experimental. Ésta combina la lógica empírica de

observación de los fenómenos con dos métodos desarrollados en otras ramas del conocimiento formal:

la hipótesis (ver método hipotético deductivo y lamedida (ver Método de la medición. Esta vertiente da

lugar al Método experimental.

Método de la observación científica: Fue el primer método utilizado por los científicos y en

la actualidad continua siendo su instrumento universal. Permite conocer la realidad mediante

la sensopercepción directa de entes y procesos, para lo cual debe poseer algunas

cualidades que le dan un carácter distintivo. Es el más característico en las ciencias

descriptivas.

Método de la medición: Es el método empírico que se desarrolla con el objetivo de obtener

información numérica acerca de una propiedad o cualidad del objeto, proceso o fenómeno,

donde se comparan magnitudes medibles conocidas. Es la asignación de valores numéricos

a determinadas propiedades del objeto, así como relaciones para evaluarlas y

representarlas adecuadamente. Para ello se apoya en procedimientos estadísticos.

Page 71: La ciencia

[editar]Pasos generales del método empírico-analítico

Existen variadas maneras de formalizar los pasos de este método. De entre ellas destacamos:

Forma convencional:

Identificación de un problema de investigación.

Formulación de hipótesis.

Prueba de hipótesis.

Resultados.

Formulación de Neil J. Salkind.

Artículo principal: Ciclo de la Investigación Científica.

Formulación de un problema.

Identificar factores importantes.

Formulación de hipótesis de investigación.

Recopilación de la información.

Probar la Hipótesis.

Trabajar con la hipótesis.

Reconsideración de la teoría.

Confirmación o refutación.

Ciencias empíricas y ciencias formales

Precisamente, es en virtud del tipo de método seguido para alcanzar el conocimiento científico como puede

establecerse una primera distinción entre las ciencias: las ciencias formales que se caracterizarían por el empleo

del así llamado método axiomático y lasciencias empíricas o fácticas, por el empleo de el método empírico-

analítico.

Estas ciencias décimos que "empiezan en la experiencia y terminan en la experiencia", distinguiéndose de este

modo de las llamadas ciencias formales y de la filosofía, que prefieren una mayor o total independencia de la

justificación empírica y los modos de investigación y verificación propiamente racionales (menos en el caso

del Positivismo lógico).

Page 72: La ciencia

Tabla comparativa.

Naturalmente, no hay que identificar totalmente las ciencias experimentales con las ciencias empíricas: todas las

ciencias experimentales (la psicología experimental, por ejemplo) son ciencias empíricas, pero no todas las

ciencias empíricas son experimentales ya que pueden utilizar algún método de verificación distinto al experimental

(ciencia política), como los ya citados observacional y correlacional; este es el caso en gran medida de la

psicología diferencial y de otras áreas principales de la psicología científica.

Las ciencias empíricas se dividen en dos grandes grupos:

Ciencias naturales: Las ciencias naturales se ocupan del mundo físico y suelen ofrecer leyes de gran

universalidad y exactitud, presentando una idea determinista de la realidad. Destacan:

Física.

Química.

Biología.

Ciencias sociales: Las ciencias sociales estudian y analizan el más complejo de los objetos de estudio: el ser

humano. Las ciencias sociales se ocupan del mundo social, de los individuos y las colectividades. Destacan:

Economía.

Psicología.

Sociología.

Antropología.

Ciencia Política

Dilthey dividió las ciencias empíricas en ciencias de la naturaleza y ciencias del espíritu; y afirmaba que cada una

de estas ciencias depende de un tipo de racionalidad; el fundamento de las ciencias de la naturaleza es la razón

instrumental, mientras que el fundamento de las ciencias del espíritu es la razón histórica. Esta distinción fue

recogida por los miembros de la Escuela de Frankfurtpara afirmar que el método

FINES DE LA CIENCIA

>La ciencia es un conocimiento vivo cargado de valores y de sentidos sociales,

la ciencia es una sola sin embargo se han hecho varias distinciones con la

finalidad de que sea mas facil el estudio de la realidad.

>La ciencia se clasifica segun el objeto de estudio en:ciencias formales las

cuales se ocupan de los objetos ideales, se opera de forma deductiva y ciencias

facticas que se ocupan del mundo fisico ; la ciencia de igual forma se clasifica

segun el interes en la busqueda del conocimiento en ciencias basicas las cuales

elaboran teorias de amplio alcance para comprender los fenomenos a estudiar

pero sin tomar en cuenta los resultados que se puedan obtener mientras que las

ciencias aplicada llevan a la practicas las teorias generales

Page 73: La ciencia

Fin de la cienciaEl fin de la ciencia es un asunto indudablemente controvetido, que genera interesantes y recurrentes debates

sobre el progreso científico, sobre el conocimiento, y sobre el futuro del saber científico.

Un autor como John Horgan,1 periodista científico que escribe para varias conocidas revistas, entre ellas Scientific

American, defiende así la idea de que lo esencial de los grandes descubrimientos científicos ya ha sido realizado, y

que por tanto de ahora en más, no deben esperarse nuevas e importantes revoluciones científicas.2

A la inversa, un autor como Bruno Latour responde que « no hay ni fin de la ciencia ni fin de la historia, y que no lo

habrá nunca».3

De manera general, debe señalarse que ciertos científicos han anunciado el fin inminente del progreso de la

ciencia, o al menos de algunas de sus ramas.4 Así, James Clerk Maxwell, William Thomson, y más

recientemente Stephen Hawking, especularon sobre el próximo fin de la física.5

El asunto de un posible fin de la ciencia tiene ocupados a los filósofos de las ciencias. Charles Renouvier entrevé e

intuye la posibilidad de una síntesis única de los conocimientos científicos ahora dispersos, lo que constituiría el fin

de la ciencia, o por lo menos el fin de la etapa actual de progreso

La(s) función(es) de la ciencia

Josep M. Casacuberta ([email protected]) es vicedirector del Instituto de Biología Molecular de Barcelona (CSIC).

EL PAÍS - 27-04-2005

Parece que finalmente la idea de que la ciencia es fundamental para potenciar la competitividad de nuestra

industria ha calado en los distintos estamentos de la sociedad. Aunque la inversión pública en ciencia sigue

siendo de las más bajas de Europa, empieza a haber iniciativas para incrementarla y para potenciar la

transferencia de tecnología. Se crean parques científicos para acercar la investigación a las empresas, se

anuncian planes para recuperar científicos de prestigio, y los ministerios de Educación y Ciencia y de

Sanidad prometen inversiones en infraestructuras científicas. Pero ¿es la generación de tecnología la única

función de la ciencia?

La ciencia es, ante todo, una manera de ver el mundo, una determinada manera de intentar comprender

Page 74: La ciencia

qué somos, entender lo que nos rodea y relacionarnos con ello. Aunque la visión científica es parcial y el

desarrollo de las sociedades modernas necesita de otras aproximaciones a la realidad, a la ciencia le

debemos muchos de los logros sociales que ahora nos parecen irrenunciables, y de las ideas que conforman

la mentalidad contemporánea.

La ciencia nos da, además, herramientas preciosas para pensar y modelos conceptuales valiosísimos para

desenvolvernos en nuestras vidas. Y deberíamos pedir a los científicos que cultivasen la ciencia y la

transmitiesen a la sociedad para que estos beneficios fueran compartidos. Ésta tendría que ser la primera

función de la ciencia y de los científicos: generar y compartir cultura científica.

Por otra parte, nuestra sociedad, e incluso nuestra vida, está cada vez más tecnificada y, aunque no sea

necesario tener conocimientos de física cuántica para utilizar un teléfono móvil, es conveniente saber hasta

qué punto una prueba genética puede ser predictiva del desarrollo de una determinada enfermedad. El

avance continuo de la técnica nos propone cada día nuevas aplicaciones de las que debemos ser capaces de

valorar los riesgos y los beneficios que nos pueden aportar. Para ello es necesario que la sociedad en

general y nuestros políticos en particular tengan un conocimiento científico suficiente para poder

participar en el debate y tomar las decisiones adecuadas. Transmitir a la sociedad el conocimiento

necesario para entender la técnica sería, pues, la segunda función de la ciencia en una sociedad avanzada.

Por último, efectivamente, la ciencia puede generar aplicaciones que en algunos casos permitirán una

Page 75: La ciencia

mayor competitividad a las empresas del país y que pueden redundar también en una mejora del nivel de

vida de la sociedad. Sin embargo, la priorización de las investigaciones atiende cada vez más a razones de

mercado, por lo que no es extraño que empiecen a oírse voces que reclaman un cierto control de estos

desarrollos técnicos y piden contención a los científicos en sus investigaciones. Los científicos solemos

invocar la libertad de cátedra y nos escudamos en la distinción entre los descubrimientos científicos y sus

aplicaciones, pero la relación entre ciencia y técnica, entre el desarrollo científico y sus aplicaciones, es

cada vez más estrecha y empieza a ser difícil trazar una línea clara que los separe. Por otra parte, aunque

sería tan absurdo poner cortapisas a una ciencia contemplativa como limitar la expresión de cualquier

forma de pensamiento, podría ser razonable, e incluso conveniente, limitar ciertos desarrollos tecnológicos

cuyo objetivo principal es el de generar productos de mercado de gran valor añadido, máxime cuando su

generalización puede alterar sustancialmente la organización social y afectar a valores hasta ahora

comúnmente aceptados.

El enorme éxito del método científico para generar tecnología nos está haciendo olvidar las otras funciones

de la ciencia. Para mantener una ciencia capaz de crear cultura, de transmitir nuevos conceptos que nos

ayuden a pensar, es necesario desligarla en parte de objetivos finalistas. Si seguimos empeñados en ver a la

ciencia únicamente como una productora potencial de aplicaciones técnicas, perderemos la influencia de la

ELPAIS.es - versión para imprimir Página 1 de 2

Page 76: La ciencia

http://www.elpais.es/articuloCompleto.html?xref=20050427elpepifut_8&type=Tes&a... 08/05/2005


Recommended