Curso: filosofia de la ciencia julio 18-19, 2015 Pablo Aguilar Marín






descargar 165.66 Kb.
títuloCurso: filosofia de la ciencia julio 18-19, 2015 Pablo Aguilar Marín
página1/2
fecha de publicación06.09.2015
tamaño165.66 Kb.
tipoDocumentos
m.exam-10.com > medicina > Documentos
  1   2




UNIVERSIDAD NACIONAL “SANTIAGO ANTUNEZ DE MAYOLO”
ESCUELA DE POSTGRADO
DOCTORADO EN ADMINISTRACION


CURSO: FILOSOFIA DE LA CIENCIA
JULIO 18-19, 2015

Pablo Aguilar Marín

e-mail: pabloagma@hotmail.com

UNIDAD 3:
FILOSOFÍA DE LA CIENCIA E INVESTIGACIÓN CIENTÍFICA
3.1 Cómo funciona la ciencia. La práctica científica

3.2 Enfoque cibernético

3.3 Enfoque cibernético-sistémico de sistemas

complejos.

3.1 Cómo funciona la ciencia. La práctica científica

Karl Popper en su “Lógica del descubrimiento científico” de 1934, señalaba que el científico es un solucionador de problemas.

¿Cómo se generan las preguntas científicas?

Ante la observación de un fenómeno, el investigador recibe información que le causa sorpresa: la información que proviene de la observación no coincide con la que ya existe en su mente sobre el fenómeno observado.
Los problemas pueden surgir: 1) de hallazgos accidentales (serendipia) que producen sorpresa, 2) de la curiosidad acerca de algún fenómeno o, 3) de alguna necesidad práctica.
La curiosidad genera preguntas cuando hay algo que ha despertado intensamente el interés del científico y que quiere conocer ese algo.
La necesidad práctica, por ejemplo en medicina, surge cuando el médico investigador necesita diseñar un tratamiento para una enfermedad.

La curiosidad, la necesidad práctica y la sorpresa, son inherentemente emocionales y constituyen las entradas al proceso de cuestionamiento.
Por otro lado, algunos problemas se generan porque, potencialmente sus soluciones, proporcionan respuestas a otros problemas. Puede haber una retroalimentación: cuestionamiento hacia cuestionamiento.

El modelo de Paul Thagard (1999) sobre cómo se originan las preguntas se muestra esquemáticamente, en la Fig. 1.



Fig.1. Orígenes de las preguntas científicas, según Thagard (1999): serendipia (observaciones accidentales), sorpresa, curiosidad, necesidad práctica.


Los científicos generan preguntas tales como:
¿Porqué sucedió X?

¿Que es Y?,

¿Cómo W pudo causar Z?
Las preguntas de los científicos se producen en respuesta a: sorpresa, curiosidad, necesidad práctica o cuestiones relacionadas.
La sorpresa ocurre cuando uno encuentra algo que no es coherente con las creencias o expectativas previas. Fue una sorpresa para Charles Darwin, por ejemplo, cuando encontró una distribución inusual de especies en las islas Galápagos.
La curiosidad genera preguntas cuando hay algo en especial, que el científico tiene interés en conocer.

Planteado un problema, lo que sigue es la búsqueda de respuestas (hipótesis), la prueba de la hipótesis, etc (Figs. 2 y 3).


Fig. 2. Representación esquemática que muestra los ingredientes para descubrir hipótesis como respuesta a un problema surgido de la observación (imaginación, intuición, lógica, experiencia, resultados científicos previos, suerte).

Hipótesis: Solución a priori de un problema planteado.



Fig. 3. El método científico.




TRES EJEMPLOS DE DESCUBRIMIENTO CIENTÍFICO

En el momento en que Arquímedes salió de la tina de baño corriendo desnudo y gritando ¡Eureka! (¡Encontré la solución!), tomó conciencia de haber producido una idea nueva y útil.
La creatividad genera ideas nuevas y útiles. Las ideas pueden ser, nuevas hipótesis y conceptos, innovaciones, nuevos métodos o técnicas.
El descubrimiento científico y la innovación tecnológica están entre los logros más importantes de la mente humana creativa.

A. La extinción de los dinosaurios

Fig.4. Walter Álvarez (derecha) y Luis Álvarez (izquierda) junto a las capas de sedimentos rocosos en Gubbio, Italia (Wikipedia, 2013). El interés de Walter Álvarez había sido descifrar el origen de los montes Apeninos.
A mediados de la década de 1970, Walter Alvarez (Fig. 4) estuvieron investigando las capas geológicas de los Montes Apeninos en Gubbio, Italia. Intentaban descifrar el origen de los montes Apeninos.

Durante el examen de sedimentos rocosos encontraron accidentalmente una fina capa de arcilla (1 cm de espesor), en la unión entre las capas correspondientes a las eras del Cretácico y del Terciario.
La transición entre las capas del Cretácico y Terciario coincide con la época en que se extinguieron los dinosaurios y muchos otros organismos (hace aproximadamente 65 millones de años).
Desde que se empezó a reportar la existencia de fósiles de dinosaurios en el siglo XIX, los científicos se preguntaban acerca de las causas de su extinción. Se proponían diversas hipótesis con muy escasa evidencia.
Álvarez empezó a investigar la delgada capa de arcilla para encontrar vestigios de lo que podría haber ocurrido.
Walter Alvarez se propuso averiguar cuanto tiempo había tardado en depositarse la delgada capa de arcilla vía la abundancia del elemento químico berilio-10.

(Hipótesis: Si determino el contenido de Be-10 en la capa puedo conocer la velocidad de deposición de la capa).
Después de fracasar en un primer intento de medir la velocidad de depósito del polvo de arcilla, consultó a su padre Luis Alvarez (Fig. 4), famoso científico, ganador del premio Nobel de física.

Alvarez padre le sugirió medir la cantidad de iridio presente en la capa de arcilla.
Los investigadores esperaban encontrar alrededor de 0.1 partes por mil millones de iridio.
Para su sorpresa, encontraron que la capa de arcilla contenía alrededor de 30 veces más de lo esperado, una cantidad inusualmente alta de iridio.
Estas altas cantidades de iridio eran típicas en asteroides y cometas.
Alvarez y colaboradores razonaron que la cantidad relativamente alta de iridio indicaría una lenta deposición permitiendo que se acumule el polvo para formar la capa.
En tiempos pasados, Alvarez había estado muy interesado en los cráteres de impactos de asteroides sobre la luna y otros planetas.
También había leído sobre la explosión del volcán de Indonesia, Krakatoa, que había lanzado tanto polvo hacia la atmósfera que había afectado el clima de todo el planeta.
En el transcurso de la investigación, Alvarez generó varias interrogantes (Thagard, 1999):
¿Porqué en la unión entre los sedimentos del Cretácico y Terciario había una capa de arcilla?
¿Qué le sucedió a los dinosaurios?
¿Cuál fue la velocidad de deposición de la capa de arcilla?
Alvarez conjeturó que el impacto de un enorme asteroide podría enviar tanta cantidad de polvo hacia el aire que podría haber oscurecido todo alrededor del mundo y hacer que colapse toda la cadena alimenticia produciendo la extinción de los dinosaurios y muchos otros organismos.
Principales fuentes de la problematización: la sorpresa (al hallar la capa de arcilla y su alto contenido de iridio), curiosidad (acerca de las causas de la extinción de los dinosaurios) y el planteamiento de problemas subsidiarios que apuntaban a proveer respuestas a los problemas ya generados.

El hallazgo sorpresivo de la elevada cantidad de iridio, su conocimiento previo sobre los cráteres de la luna, sobre la explosión del volcán de Krakatoa, etc., contribuyeron para que Alvarez formule la hipótesis (Fig. 5):
“Hace 65 millones de años un asteroide podría haber colisionado con la tierra y causado la extinción masiva de dinosaurios y otras especies.”



Fig. 5. Diseño artístico que visualiza la hipótesis de la colisión entre un asteroide y la tierra (Sebastian, 2013).

¿Donde adquirió Alvarez las ideas que le condujeron a responder las preguntas que se formuló?
Es posible que la hipótesis del impacto fue generado por analogía:
1) La luna fue impactada por asteroides que dejaron grandes

cráteres.

2) Por lo tanto, de manera similar, los asteroides podrían haber

colisionado con la tierra produciendo la capa de arcilla con

inusuales porcentajes de iridio.

B. La estructura de doble hélice del ADN
En 1953, James Watson y Francis Crick, publicaron su modelo de la estructura de doble hélice de la molécula de ADN (Fig. 6a) que tuvo efectos revolucionarios en nuestra comprensión y control de los procesos genéticos.



a)

Fig. 6 a. Modelo original de Watson y Crick (1953)

La molécula del ADN consiste de un conjunto de unidades que se repiten una y otra vez denominados, nucleótidos. Cada nucleótido comprende (Fig. 6b y c): i) una base rica en nitrógeno (adenina A, citosina C, guanina G o tiamina T), ii) un grupo fosfato, iii) un azúcar. Hay cuatro tipos de bases.




b) c)

Fig. 6b y c. Representación esquemática del modelo de Watson y Crick (1953) de la estructura de la molécula de ADN. b) y c) Las cuatro bases diferentes ricas en nitrógeno: adenina A, citosina C, guanina G y tiamina. Un nucleótido está formado por un fosfato, un azúcar y una base.

Miles de nucleótidos ensartados unos con otros forman la molécula completa de ADN.

El problema de la composición y estructura del material genético había estado siendo perseguido durante más de 50 años por genetistas, biólogos y otros científicos (Olby, 1994).

A inicios del siglo XX, se creía que el material genético era la proteína debido a su abundancia en las células.
También estaba bien establecido que la molécula de ADN estaba presente en todas las células (Stent, 1980).
Investigadores de primera línea que estudiaban la estructura de las proteínas, consideraban que el material genético estaba presente solamente en las proteínas del núcleo de la célula (Weisberg, 2006).
En 1944, el físico Erwin Schroedinger, uno de los fundadores de la teoría cuántica, publicó su libro ¿Qué es la vida? (Schroedinger, 1944).
Schroedinger discutía cómo podría estar estructurado el aún desconocido material genético y cómo podría transmitir información, dirigir el proceso reproductivo y otras actividades.
Proponía que el material genético podría estar constituido por pequeñas unidades que se repiten una y otra vez en diversas combinaciones.

El libro de Schroedinger fue leído por muchos físicos despertando su interés en temas biológicos en general y en genética, en particular.
Dos de estos físicos fueron los británicos, Francis Crick y Maurice Wilkins.

El libro fue también leído por biólogos, entre ellos, los norteamericanos James Watson y Salvador Luria (Watson se doctoró en genética bajo la dirección de Luria).
Por la década de 1950, como resultado de una constelación de hallazgos, muchos investigadores (aunque no todos) habían llegado a la conclusión de que el material genético era la molécula de ADN y no la proteína.

El físico británico Maurice Wilkins había dado una charla en la que discutió la posibilidad de que la molécula de ADN fuera de forma helicoidal y de una sola hebra (Judson, 1979; Olby, 1994).

Más adelante, en base a nuevos datos, Wilkins se inclinó a la idea de 3 hebras helicoidales.

En 1950, el biólogo norteamericano James Watson (1968) asistió a una conferencia de Wilkins en Inglaterra en la que Wilkins proyectó una diapositiva de una fotografía de rayos X del ADN (Fig. 7); esta fotografía lo cautivó completamente.




Fig. 7. Fotografía de rayos X de Wilkins (Watson, 1968).


El físico británico Francis Crick formaba parte de un grupo de investigadores del Laboratorio de Cavendish de la Universidad de Cambridge. Watson logró integrarse al grupo.

La colaboración entre Watson y Crick empezó en el otoño de 1951. Compartían un interés común en saber cómo podía ser almacenada la información genética en una molécula.

La atención de Watson y Crick se orientó hacia la manera en que estaba estructurada la molécula de ADN:
¿Era la molécula del ADN una cadena larga de pequeñas unidades, uno adyacente al siguiente? ¿Era un anillo cerrado con un nucleótido adjunto al siguiente hasta retornar al punto de inicio?
¿Tenía otra forma?

El químico norteamericano (premio Nobel de química), Linus Pauling, recientemente había resuelto el problema de la determinación de la estructura de la proteína que forma las uñas de los dedos y el cabello: la proteína alfa-keratina (Olby, 1994; Watson, 1969).

Pauling había propuesto que la estructura de la alfa-keratina tenía la forma de una hélice y había construido un modelo de la estrucutura para mostrar cómo los átomos encajan juntos.
Conocedores de los trabajos de Pauling y teniendo en cuenta los trabajos de Wilkins y otros, Watson y Crick tomaron dos decisiones que fueron muy importantes para ubicarlos en el camino hacia el éxito:
Watson y Crick tomaron dos decisiones que resultaron muy importantes para ubicarlos en el camino hacia el éxito:
1) Adoptaron la hipótesis de trabajo: “La molécula de ADN podría tener la forma de una hélice.”

2) Decidieron construir un modelo de la estructura del ADN.

Cuando Watson y Crick empezaron a trabajar, la evidencia indicaba solamente que la molécula era más gruesa que una hebra helicoidal. Podrían ser dos, tres o cuatro hebras.
Otro problema era donde ubicar las bases (los cuatro diferentes compuestos A, C, T y G); podrían estar dentro de la hélice (entre las hebras) o sobresaliendo desde afuera con las hebras helicoidales en el centro.
Watson y Crick necesitaban piezas de información adicionales para llevar a cabo la construcción de su modelo.
En noviembre de 1951, la investigadora británica Rosalind Franklin, expuso en una conferencia, fotografías de rayos X del ADN (Fig. 8) después de ser expuestos a humedad.


Fig. 8. Fotografía de raxos X de Franklin de la molécula de ADN (Weisberg, 2006).

Con esta información, en noviembre de 1951 Watson y Crick construyeron un modelo de la estructura del ADN de 3 hebras helicoidales y con las bases en el exterior.

Este modelo resultó ser erróneo pero eran razonable para los datos con los que se contaba en en aquél tiempo.
No obstante lo erróneo que resultó este primer intento, este modelo los puso en la senda que rápidamente lo condujo al modelo correcto final que Watson y Crick publicaron en 1953 (Fig. 6a).

Las ideas novedosas utilizadas por Watson y Crick provinieron, en primer lugar, de la adopción y extensión de las ya existentes ideas que habían sido desarrolladas por Pauling al tratar con problemas similares en un área estrechamente relacionada.

Wilkins también contribuyó a la adopción de Watson and Crick del supuesto del ADN como helicoidal con sus fotografías de los estudios de difracción de rayos X.
Cuando Watson y Crick adoptaron el supuesto de trabajo de que el ADN era helicoidal, cambiaron la estructura de su problema. Ahora ya no tenían que tamizar datos e ideas sin focalización; ya estaban direccionados.

Cuestionaban aquellos datos que estaban en conflicto con la idea de la hélice.
(Otros investigadores que adolecían de la hipótesis helicoidal se vieron forzados a tratar todos los datos como iguales y esto, muchas veces los extraviaba).
Sin embargo, la hipótesis helicoidal no era todo lo que se necesitaba.
La evidencia indicaba solamente que la molécula de ADN era más gruesa que una hebra helicoidal; podrían ser dos, tres o cuatro hebras.
Watson y Crick construyeron un modelo del ADN conteniendo tres hebras helicoidales (idea razonable para esa época).
Aunque este intento resultó ser erróneo, los puso en la senda que rápidamente los condujo al modelo final (con dos hebras) que Watson y Crick publicaron en 1953.
C. Úlceras gástricas y bacterias

Las úlceras pépticas son llagas que pueden desarrollarse en la mucosa que recubre al estómago (úlceras gástricas) o en la primera parte del intestino delgado (úlceras duodenales). Es una enfermedad común que afecta hasta el 10% de la población.

Hasta hace tres décadas aproximadamente, al estómago se lo tomaba como un ambiente estéril, demasiado ácido para que una bacteria pueda sobrevivir allí.
Una creencia común de la comunidad médica y de la población (no respaldada por alguna investigación médica) era que las úlceras eran causadas por el “stress”, que provocaba un exceso de acidez.
El tratamiento era con drogas antiácidas que proveían alivio pero no cura.

En 1979, en el curso de sus tareas normales de patólogo del Hospital “Royal Perth l” de Australia, J. Robin Warren había observado con un microscopio una bacteria con forma de espiral en una biopsia tomada del estómago de un paciente con gastritis severa (Warren y Marshall, 1983).

Warren no había estado buscando bacterias en el estómago; simplemente los encontró.

Durante los siguientes dos años Warren observó la bacteria en muchas muestras, usualmente asociadas a gastritis.
En 1981, Barry Marshall inició una pasantía de seis meses como parte de su programa de entrenamiento en medicina interna. Se le sugirió ayudara a Warren a investigar la bacteria que él había observado para indagar si tenía alguna significancia médica.

Marshall y Warren aplicaron un tratamiento con el antibiótico tetraciclina a un paciente con un malestar gástrico severo causado por gastritis.
Después de 14 días de antibióticos, desaparecieron la gastritis y el malestar.

Pruebas clínicas siguientes determinaron que una combinación de metronidazole y bismuto (antibiótico) erradicaba la infección en 80 % de pacientes (Marshall, 1994).

En sus investigaciones, Warren y Marshall generaron numerosas preguntas importantes sobre la bacteria encontrada en los estómagos de pacientes con úlceras (Thagard, 1997):
¿Está la bacteria correlacionada con la enfermedad de la úlceras?

¿Cómo puede eliminarse la bacteria?
¿Afectaría a la enfermedad la eliminación de la bacteria?

Marshall diseñó un estudio sistemático en 100 pacientes orientado a hallar correlaciones entre la ocurrencia de la bacteria y la presencia de problemas estomacales.
En Octubre de 1982, los resultados estadísticos indicaban que solamente los pacientes con gastritis tenían la bacteria espiral gástrica y que los 13 pacientes con úlcera duodenal no tenían el microorganismo.

Mientras esperaban que el estudio se completara, Marshall y Warren leían profusamente todo escrito sobre gastritis y bacterias y estuvieron interesados en averiguar si la gastritis crónica estaba asociada a la úlcera péptica (Marshall, 1989).
Las correlaciones encontradas entre la presencia de bacterias y las úlceras fueron sorprendentes.
Experimentos subsiguientes determinaron que una combinación de antibióticos fue capaz de eliminar la bacteria y curar la úlcera péptica.
Warren y Marshall notaron similitudes entre la bacteria espiral gástrica y la ya conocida bacteria, Campylobacter.

En abril de 1982, por primera vez se cultivó el organismo espiral y se hizo obvio que era una nueva especie de bacteria.

En 1983, se le dio el nombre de Campylobacter pyloridis.

Estudios posteriores condujeron a la conclusión de que la bacteria no pertenecía a Campylobacter de modo que el nombre fue cambiado a Helicobacter pylori (Goodwin et al., 1989). Ver Fig. 9.



Fig. 9. Microfotografía de la bacteria Helicobacter pylori (indicada por las flechas) tomada del estómago de una paciente con úlceras pépticas (Thagard, 1997).

Algunas de las hipótesis de Marshall y Warren habrían sido:

  1. La bacteria espiral gástrica (Helicobacter pylori) habita el estómago humano.




  1. La bacteria Helicobacter pylori puede causar úlceras pépticas.


3) Las úlceras pépticas pueden curarse con antibióticos.


En enero de 1983, Marshall envió un reporte para un congreso de la Sociedad Australiana de Gastroenterología, proponiendo que la bacteria podría ser responsable de las úlceras.

El reporte fue rechazado por los organizadores del evento: de 67 trabajos enviados, 59 fueron aceptados; el de Marshall estuvo entre los rechazados.
El mismo año, Marshall y Warren lograron que se publicara su trabajo en la revista “The Lancet” (Marshall y Warren, 1984).
Aunque la hipótesis de que las úlceras pépticas son causadas por bacterias fue inicialmente visto como ridícula por muchos gastroenterólogos, estudios siguientes han sustentado ampliamente la afirmación de Marshall and Warren.
Desde aquél año, se han publicado cerca de 4,000 artículos sobre la bacteria Helicobacter pylori.
En la actualidad, las úlceras pépticas son ampliamente consideradas (aunque no universalmente) como de origen bacterial y tratable con antibióticos.


La sorpresa y curiosidad condujeron a Warren a hacerse preguntas acerca de la naturaleza de la bacteria. La sorpresa fue de hecho un factor, porque generalmente se creía que el estómago era estéril. La curiosidad se dio por el hecho de que se conocía poco acerca de la bacteria.
La necesidad práctica de curar la enfermedad les condujo a utilizar antibióticos como tratamiento.
En la historia de la ciencia médica, ocurrió así, un dramático cambio de paradigma con respecto a la comprensión y tratamiento de las úlceras pépticas.

Otra manera de plantear un problema: la perspectiva cognitiva
Desde mediados del siglo XX, se viene intentando realizar con máquinas, las mismas tareas que realizan los humanos y se simula mediante computadora los procesos que usan los seres humanos para realizar estas tareas.

Allen Newell y Herbert Simon desarrollaron una teoría sobre la solución humana de problemas (“The simulation of the human thought”, “Computer simulation of human thought”).
Ellos consideraron que el pensamiento creativo es un caso de “problem solving”.
Su teoría trata de describir cómo los humanos intentan resolver ciertos problemas y está íntimamente relacionada con el campo del prcesamiento de la información y la construcción de atómatas inteligentes.
Newell y Simon propusieron que los seres humanos deberían ser vistos como sistemas de procesamientos de información, análogos a las computadoras.

Desde una prespectiva cognitiva, un ser viviente, específicamente, un ser humano se caracteriza porque persigue sus propias metas (tomamos el término “meta” como sinónimo de finalidad o propósito).

En el nivel más básico, la meta de un sistema autónomo es la supervivencia, es decir, el mantenimiento de su organización esencial.
La meta fue construida en todos los seres vivientes por la selección natural: aquellos que no se focalizaron en la supervivencia simplemente fueron eliminados.
Adicionalmente a la meta primaria, el sistema tiene diversas metas subsidiarias tales como, mantenerse caliente, hallar comida. Las metas subsidiarias contribuyen indirectamente a su supervivencia.
Desde una perspectiva cognitiva, un sujeto tiene un problema cuando la situación presente en la que está no es la situación en la que quiere estar y, al momento, no se sabe cómo cambiar la situación hacia algo más satisfactorio (Figs. 10).

Problema es a aquello que surge al existir discrepancias entre lo que se tiene (estado actual o inicial) y lo que se desea (estado deseado o estado meta), Fig. 6.
elipse 1613elipse 1609conector recto 1612conector recto 1611conector recto 1610

Fig. 10. El estado actual como diferente del estado meta.

Cuando se plantea una situación problemática, normalmente existe un mayor o menor grado de incertidumbre en cuanto a las características del sistema en estudio, a los fines que se persiguen o a los medios a utilizar para alcanzar tales fines (Fig. 11).
A partir de estos estados de confusión y complejidad que provocan insatisfacción, apuro o perplejidad (estados iniciales), es que se tiene que estructurar un plan de acción para alcanzar el estado meta o estado deseado.


¿Qué hacer para lograr lo deseado?

Programas, procedimientos, métodos de trabajo.

group 537

¿Cómo estamos, de que partimos? Problemática, variables relevantes, escenario.

¿Qué se desea?

Objetivos y metas

Fig. 11. Estructura de una situación problemática.

A la situación insatisfactoria se le denomina estado problema.
La situación en la que el sujeto quiere estar, es decir, aquella a la que quiere cambiar el estado problema se llama, estado meta.
Se ha resuelto el problema cuando el sujeto ha sido capaz de idear una manera de hacer pasar al sistema del estado inicial al estado meta.


3.2 Enfoque cibernético
La cibernética, como un campo específico, creció de una serie de reuniones interdisciplinarias sostenidas de 1944 a 1953.
Se reunían un cierto número de notables intelectuales, entre ellos, Estos progresos fueron debidos a los pioneros: Norbert Wiener (matemático, 1894-1964), Warren McCulloch (neurofisiólogo, 1898-1969), Jay Forrester (Ingeniero de computadoras-científico-sistémico, 1918-), Arturo Rosenblueth (neurofisiólogo, 1900-1970) Julian Bigelow (matemático-ingeniero de computadoras 1913-2003), Margaret Mead (antropóloga), Oskar Morgenstern (economista), John von Neumann, Claude Shannon, Heinz von Foerster, W. Ashby.

Su propósito fue enfocar el estudio de los organismos vivientes desde el punto de vista de un ingeniero de servomecanismos y, recíprocamente, considerar los servomecanismos con la experiencia de un neuro-fisiólogo.
En la década de 1940 estuvieron pasmados por dos hechos sorprendentes:

1) el comportamiento aparentemente “inteligente” de máquinas automáticas rastreadoras de aviones (eran capaces de predecir las trayectorias de aviones teniendo en cuenta sus trayectorias pasadas). Parecían inteligentes porque utilizaban “experiencia” (registro de eventos pasados) y predecían las futuras trayectorias de los aviones.

2) las “enfermedades” que podían afectar a estas máquinas: si se intentaba reducir la fricción entre sus partes, se producía una serie de oscilaciones incontrolables.

Impresionado por esta “enfermedad” de la máquina Wiener le preguntó al neurofisiólogo Arturo Rosenblueth (1900-1970) si tal comportamiento había sido encontrado en el ser humano.

La respuesta fue afirmativa: en los casos de ciertos daños al cerebelo, el paciente no puede levantar un vaso con agua hacia su boca.

De esto Wiener infirió que, para controlar una acción con un propósito o finalidad, la circulación de la información necesaria para el control debe formar “un lazo cerrado” que permita la evaluación de los efectos de las acciones y la adaptación de la conducta futura basada en desempeños pasados.

Estos efectos eran típicos de sistemas de guía de armas antiaéreas y del sistema nervioso cuando ordena a los músculos hacer un movimiento cuyos efectos son detectados por los sentidos y alimentado de regreso al cerebro.

Habían descubierto el bucle cerrado (Fig. 12) de información necesaria para corregir cualquier acción (el bucle de retroalimentación negativa) y generalizaron este descubrimiento en términos del organismo humano.


Fig. 12. Bucle de retroalimentación positiva. Parte de la salida retorna (realimenta) a la entrada. Invirtiendo el sentido de la flecha en el bucle se obtiene la retroalimentación negativa.


El término cibernética se deriva del griego kybernetes o "steersman" y apareció por primera vez en la antiguedad con Platón y en el siglo XIX con Ampere; ambos lo vieron como la ciencia del gobierno eficaz.

El término fue revivido por el matemático Norbert Wiener. En 1948 publicó su obra: “Cibernética, el estudio del control y comunicación en el animal y la máquina”.
Ya en 1943, Arturo Rosenblueth,
Norbert Wiener y Julian Bigelow habían publicado: “Comportamiento, propósito y teleología”.

Claude Shannon publicó “The Mathematical Theory of Communication” que marcó el inicio de la teoría de la información.
Se dieron cuenta que el entendimiento de los mecanismos cerebrales y su simulación mediante máquinas solamente podría llevarse a cabo a través de la cooperación entre muchas disciplinas.

Las ideas “hervían.” Los vocabularios pasaban de una disciplina a otra. Poco a poco se fue generando el lenguaje de la cibernética: comunicación, control, meta o propósito, organización, aprendizaje, regulación, adaptación, auto-organización, jerarquía, estructura, memoria, percepción, etc.

La necesidad de fabricar máquinas que imiten ciertas funciones de los organismos vivientes contribuyó a acelerar el progreso de la comprensión de los mecanismos cerebrales.

En 1946 se fabricó la primera computadora (no digital): ENIAC.

En el año 1951, Jay W. Forrester del laboratorio de servomecanismos, inventó una memoria magnética super rápida para la época.

Así se marcó el inicio de la biónica, las investigaciones en la inteligencia artificial y robots.

Por los años 1940 se pasó del estudio de la máquina al organismo viviente, transfiriendo del uno al otro las ideas de retroalimentación y finalidad y abriendo el camino para la automación y las computadoras.



En la década de los 60, la cibernética y la teoría de sistemas se extendió a la industria, sociedad y ecología.





Probablemente la innovación más importante de la cibernética es la explicación de la dirección hacia una meta o propósito.

Desde sus inicios, la cibernética centró el interés en sistemas vivientes y máquinas.
En la cibernética, la prioridad no es la composición del sistema sino cómo funciona.

Se focaliza en cómo los sistemas usan la información, en las acciones de control para timonear hacia una meta mientras va contrarrestando diversas perturbaciones.
Una perturbación es todo cambio en el entorno de un sistema que puede afectarlo causando desviaciones del estado en el que se encuentra.

Un camino hacia una meta implica regulación o control de las posibles perturbaciones que traten de desviar al sistema de su camino hacia la meta.
Entonces, hay un controlador y un controlado.
El controlador intenta resistir todas las desviaciones.
El control no es más que el mantenimiento de una meta mediante la compensación activa de las perturbaciones.
La retroalimentación negativa reduce la desviación (error) desde la meta que puede haber sido causado por una perturbación en el entorno. La retroalimentación negativa generando efectos estabilizadores.

La retroalimentación positiva incrementa la desviación amplificando los efectos desetabilizadores.


Un ser viviente (el ser humano) se caracteriza porque persigue sus propias metas (tomamos el término “meta” como sinónimo de finalidad o propósito).
En el nivel más básico, la meta de un sistema autónomo es la supervivencia, es decir, el mantenimiento de su organización esencial.

La meta fue construida en todos los seres vivientes por la selección natural: aquellos que no se focalizaron en la supervivencia simplemente fueron eliminados.

Adicionalmente a la meta primaria, el sistema tiene diversas metas subsidiarias tales como, mantenerse caliente, hallar comida. Las metas subsidiarias contribuyen indirectamente a su supervivencia.

Por otro lado, un ser viviente es un sistema autónomo: por si mismo respira o regula la temperatura de su cuerpo cuando hace calor o frío.


3.3 Enfoque cibernético-sistémico de sistemas complejos
Enfoque analítico
Gran parte de nuestro conocimiento científico vigente está basado en 2 supuestos que corresponden al llamado enfoque analítico:


  1. Si comprendemos las partes comprenderemos el todo. El todo es igual a la suma de sus partes.




  1. Pequeños cambios producirán pequeños efectos y grandes cambios producirán grandes efectos.


El enfoque analítico busca reducir el todo a sus elementos o partes con la finalidad de estudiarlos en detalle.

El enfoque analítico ha predominado desde los años 1600: las partes es lo primario y el todo lo secundario.

Justamente, René Descartes, describió así su método analítico:

“Dividir el todo en tantas partes como sea posible y en tantas partes como se requiera para resolver las dificultades de la mejor manera”
Si hay muchas variables, modificar una variable a la vez (y mantener constante las otras); se trata de inferir leyes generales que permitan predecir las propiedades del todo bajo diferentes condiciones.
El enfoque analítico, inmerso en la visión newtoniana, busca reducir el todo a sus elementos o partes con la finalidad de estudiarlos en detalle y comprender los tipos de interacción que existe entre ellos.

Pero realidades tales como: organismos, sociedades, ciudades, las grandes corporaciones, tienen propiedades (emergentes) que no pueden reducirse a las meras propiedades de sus partes.

Por ejemplo, en la organización de sistemas vivientes es importante la jerarquía: los diferentes niveles de organización (Fig. 13).
En los seres vivientes: los electrones, protones y neutrones formas átomos; los átomos forman moléculas; las moléculas forman células; las células órganos; los órganos organismos; los organismos poblaciones (grupos sociales).


Fig. 13. Niveles de organización más relevantes de los seres humanos (Findlay y Thagard, 2012).

El comportamiento de estas realidades tiene aspectos que son intrínsicamente impredecibles e incontrolables y no pueden describirse de manera completa.

La mayoría de la toma de decisiones en el mundo de hoy, trata con situaciones problemáticas complejas.
Excepto las situaciones cotidianas más triviales, desde las unidades familiares, hasta las más grandes corporaciones, desde el gobierno local hasta las instituciones internacionales, la toma de decisiones sucede dentro del contexto de los sistemas.


Enfoque sistémico
Ya desde los años 1940, un cierto número de investigadores de diversas disciplinas científicas empezaron a reconocer que todas las cosas del mundo son partes de otras más grandes.
La teoría de sistemas fue por primera vez propuesto en la década de 1940 por el biólogo Ludwig von Bertalanffy.
Conceptualizó a un organismo como un sistema abierto en constante intercambio con otros sistemas circundantes por medio de complejas interacciones.
Los sistemas se encuentran en todos los niveles de la realidad.
En 1954 Bertalanffy creó la Sociedad para la investigación de sistemas generales.
Se unieron a él: the el matemático A. Rapoport, el biólogo W. Ross Ashby, el biofísico N. Rashevsky, el economista K. Boulding.

A través de los años 1950, los pensadores cibernéticos entraron en coherencia con la escuela de la Teoría General de Sistemas (TGS) con el intento de construir una ciencia unificada.
El enfoque sistémico Influyó profundamente en aquellos que habían decidido extender el enfoque cibernético a los sistemas sociales y las empresas industriales.
Forrester se dió cuenta de la importancia del enfoque sistémico en la concepción y control de organizaciones complejas que involucran a hombres y máquinas en tiempo real: las máquinas tienen que ser capaces de tomar decisiones a medida que le llega la información.

En 1971 Forrester creó la nueva disciplina: los sistemas dinámicos. Publicó su libro: el mundo dinámico.

La TGS estudia sistemas en todos los niveles de generalidad mientras que la cibernética se centra más específicamente es sistemas dirigidos hacia la meta, sistemas funcionales que tienen alguna forma de relación de control.

En el enfoque sistémico cada objeto de la realidad, es visto como parte de un todo más grande.
El centro de la atención se desplaza de las partes al todo (y del todo a las partes).
Cada cosa depende de todo lo demás.
Ningún problema o solución es válida fuera de un contexto.
  1   2

Añadir el documento a tu blog o sitio web

similar:

Curso: filosofia de la ciencia julio 18-19, 2015 Pablo Aguilar Marín iconEl pasado 22 de julio de 2015 se publicó en el Boletín Oficial del...

Curso: filosofia de la ciencia julio 18-19, 2015 Pablo Aguilar Marín iconSíntesis de la ciencia, la religión y la filosofía

Curso: filosofia de la ciencia julio 18-19, 2015 Pablo Aguilar Marín iconConferencia 8 de Julio – Curso 9 de Julio del 2011

Curso: filosofia de la ciencia julio 18-19, 2015 Pablo Aguilar Marín iconDÍEZ, José A. y Moulines, C. Ulises (1999): Fundamentos de Filosofía...

Curso: filosofia de la ciencia julio 18-19, 2015 Pablo Aguilar Marín iconBogotá, 09 de julio de 2015

Curso: filosofia de la ciencia julio 18-19, 2015 Pablo Aguilar Marín iconPrograma del curso introductorio de ccss y filosofíA

Curso: filosofia de la ciencia julio 18-19, 2015 Pablo Aguilar Marín icon4a edición: días 2, 9, 16 y 23 de julio de 2015

Curso: filosofia de la ciencia julio 18-19, 2015 Pablo Aguilar Marín iconEn el I curso de Pediatría hm hospitales-Universidad ceu san Pablo...

Curso: filosofia de la ciencia julio 18-19, 2015 Pablo Aguilar Marín iconEl Dr. Pedro J. Delgado dirige el curso de Cirugía de la Mano organizado...

Curso: filosofia de la ciencia julio 18-19, 2015 Pablo Aguilar Marín iconEn el Boletín Oficial del Estado de 11 de julio de 2015 se ha publicado el






© 2015
contactos
m.exam-10.com