sábado, 15 de enero de 2011

TEORIA GENERAL DE LOS SISTEMAS

PROYECTO DE TEORIA DE LOS SISTEMAS

PROYECTO DE TEORIA DE LOS SISTEMAS (VIDEO)

TEORÍA GENERAL DE SISTEMAS

La teoría general de sistemas (TGS) o teoría de sistemas o enfoque sistémico es un esfuerzo de estudio interdisciplinario que trata de encontrar las propiedades comunes a entidades llamadas sistemas. Éstos se presentan en todos los niveles de la realidad, pero que tradicionalmente son objetivos de disciplinas académicas diferentes. Su puesta en marcha se atribuye al biólogo austriaco Ludwig von Bertalanffy, quien acuñó la denominación a mediados del siglo XX.

LA CIBERNETICA, LENGUAJE Y CONSTRUCTIVISMO

El problema del lenguaje es asunto del siglo XX. De hecho, se ha llamado a esta la filosofía del "giro lingüístico". Habida cuenta -como lo decía Parménides en su "Poema"- de lo "trillado de ese camino", no se quiere insistir aquí "sobre lo mismo"
La relación conocimiento y lenguaje en la cibernética de segundo orden

¨...dentro de pocos años, si queda todavía algún filósofo no familiarizado con los principales avances de la inteligencia artificial, será justo acusarlo de incompetencia profesional: y que dictar cursos de filosofía de la mente, de epistemología, sin examinar los aspectos vinculados con la inteligencia artificial será tan irresponsable como dictar cursos de física que no incluyen la teoría cuántica¨.


Aron Sloman


Sumario:

Introducción:

El problema del lenguaje es asunto del siglo XX. De hecho, se ha llamado a esta la filosofía del "giro lingüístico". Habida cuenta -como lo decía Parménides en su "Poema"- de lo "trillado de ese camino", no se quiere insistir aquí "sobre lo mismo". "Lo mismo" en este caso es reconstruir la historia del "problema del lenguaje" del Cratilo a Rorty, pasando por Occam, Frege , Wittgenstein , y los muy importantes aportes en este sentido de Husserl y Heidegger . "Lo otro", lo que se propone aquí, reconociendo todos esos antecedentes es: comprender el lenguaje como fundado-fundador de la cultura, por el sujeto que lo juega, en el despliegue de la autonomía de la significación.
Se quiere, pues, ir directamente a la tesis según la cual hay una "cibernética de segundo orden". Ésta, sin más, es el "juego de lenguaje" que "crea mundo" cuando "el sujeto juega el lenguaje en el mundo". No hay otra esfera o campo para ese juego que la cultura.
En su momento Wittgenstein pensó que ¨cada forma de lenguaje es una forma de vida¨ (Wittgenstein, L.;1988:§22). La "cibernética de segundo orden" es la teoría del conocimiento (corriente y científico, gnoseología y epistemología) que, en nuestro entender, lleva la precitada tesis a sus consecuencias.
§ 1. Estado del Arte:
Nos adentramos aquí, en aquello que consideramos las fuentes más inmediatas de la cibernética de segundo orden:
Austin , Searle y Strawson: la performatividad en el lenguaje (J. F. Lyotard ) Aquí el centro de la reflexión gira en torno de los actos de habla, y dentro de estos actos, sobre su aspecto pragmático. Si el lenguaje se redujera a la estructura sujeto-predicado o se aceptara que todo predicado tiene que hacer relación a hechos del mundo: cómo se explicaría predicados como ruegos, órdenes, súplicas. En concreto, cuando se dice ?¡Salte del salón!? De hecho, no hay, en rigor, referente ostensible. El problema, pues, es que el referente no es el único criterio para establecer la significatividad del lenguaje. Sobre Los juegos del lenguaje, Lyotard hace tres observaciones: primera, las reglas no tiene su legitimación en ellas mismas, forman parte de un contrato o no entre los jugadores. La segunda, que a falta de reglas no hay juego, que un cambio en una de ellas modifica el juego, que una jugada o un enunciado no cumpla con las reglas esta fuera del juego. La tercera, todo enunciado debe ser considerado como una jugada hecha en un juego. Llegando a un primer principio del método a seguir: que hablar es combatir, en el sentido de jugar, y que los actos del lenguaje se derivan de una agonística general (Lyotard, J. F.; 1989: 27).
Desde esta perspectiva la investigación se legitima desde la performatividad. La investigación en nuestros tiempos se halla determinada por ¨enriquecimiento de las argumentaciones y la complicación de la administración de pruebas¨ (Lyotard, J. F.; 1989:79). La investigación científica no usa lenguajes denotativos, si lo hace, lo hace desde una condición pragmática, la de formular sus propias reglas y pedir al destinatario que las acepte. Define por lo tanto una axiomática, la comprensión de los símbolos que serán empleados en el lenguaje propuesto, la forma de respetar las expresiones que fueron aceptadas y sus operaciones. Ello es evidente, a propósito de nuestro ensayo, en los sistemas computacionales y cibernéticos. La axiomática se constituye como un metalenguaje que determina las condiciones formales de la misma, ese metalenguaje es la lógica. Una lógica que requiere las propiedades de un sistema formal: la consistencia, la completud sintáctica, la decidibilidad y la independencia de axiomas unos de otros (Lyotard, J. F.; 1989:80).
En cuanto a la administración de la prueba, que en principio es aceptada como una parte de la argumentación destinada al asentimiento de los destinatarios, pasa al control de otros juego del lenguaje, donde lo que se ventila no es la verdad, sino la performatividad, es decir la mejor relación input/output. La performatividad al aumentar la capacidad de administrar la prueba, aumenta la de tener razón y la de una mayor justicia. La relación entre ciencia y técnica se invierte, la complejidad de las argumentaciones obliga a sofisticar los medios de probar, beneficiándose con ello la performatividad.
La transmisión del conocimiento se ve afectado por la performatividad. ¨Cuando el criterio de pertinencia es la performatividad del sistema social admitido, es decir, cuando se adopta la perspectiva de la teoría de sistemas, se hace de la enseñanza superior un subsistema del sistema social, y se aplica al mismo criterio de performatividad a la solución de cada uno de esos problemas¨ (Lyotard, J. F.; 1989: 89).
La neurociencia (neurobiología , neuropsicología ). Con la célula entramos en lo que conocemos con el nombre de vida: un sistema de autoconservación, de autoduplicación y consumidor de energía. La ventaja de los organismos pruricelulares es que las células individuales pueden especializarse, ellas permitieron la formación de un sistema nervioso, requerimiento fundamental de la inteligencia significativa (Churchland, P.;1992:182). Nos encontramos con el funcionamiento del sistema nervioso constituido por células que llevan impulsos llamadas neuronas. Su interconexión, llamada sinapsis se realiza por medio de una sustancia química llamada neurotransmisor. Las neuronas si se comparan con las compuertas lógicas en la UCP de un ordenador, una compuerta lógica recibe información de no más de dos fuentes, mientras que una neurona recibe información de más de mil. Una compuerta lógica emite salidas a una frecuencia metronómica, 106 Hertz, por ejemplo; una neurona varía entre 0 y 102 hertz. La salida de la compuerta lógica está y debe estar temporalmente coordinada con la de todas las demás compuertas; las salidas neuronales no están así coordinadas. La función de una compuerta lógica es la transformación de información binaria en otra información binaria; la función de una neurona, si podemos incluso hablar en singular, parece ser la transformación de conjuntos de frecuencias ondulatorias en otras frecuencias ondulatorias. Por último, las propiedades funcionales de una compuerta lógica son fijas, la de una neurona son plásticas, por el surgimiento de nuevas conexiones sinápticas o el degeneramiento de las viejas. Pero en la confrontación inteligencia natural e inteligencia artificial se van logrando acercamientos, es Shannon quien demuestra como los circuitos que aparecen en un aparato electrónico, se pueden expresar mediante ecuaciones semejantes a las de Boole, vale decir que un sistema dual de verdadero y falso, es equivalente a los estados ?abierto? y ?cerrado? de un circuito. (Shannon, C.;1938:1-11).Comienza así la fabricación de máquinas capaces de ejecutar operaciones de verdad lógica y da la pauta para la programación de los computadores como un problema de lógica formal, es decir como un lenguaje.
La ?Epistemología experimental¨: McCulloch, Bateson , y Bertalanffy. La epistemología ha
salido del campo de la filosofía y se ha adentrado en el de la biología a través de los biólogos experimentales contemporáneos (Keeney, B.;1987:27).
Fue el propio McCulloch quien le dió el título genérico de epistemología experimental y Bateson la considera como una rama de la ciencia combinada con una rama de la filosofía. Como ciencia, la epistemología es el estudio de cómo los organismos particulares o agregados de organismos conocen, piensan y deciden. Como filosofía, la epistemología es el estudio de los límites necesarios y otras características de los procesos del conocer, pensar y decidir (Bateson, G.;1993a:242). Desde este punto de vista la epistemología se ubica bajo la perspectiva de cómo conocen los que conocen, es decir en las propiedades del observador y no en las propiedades del objeto, aquello que se conoce. Afirma Bateson, ¨toda experiencia es subjetiva. Son nuestros cerebros los que fabrican las imágenes que creemos percibir¨ (Bateson, G.;1993a:42).
La Teoría General de Sistemas nos aporta a esta concepción a través de Bertalanffy, quien propone encontrar las correspondencias o isomorfismos entre sistemas de todo tipo, un Modelo de Sistema General que sea compatible con otros modelos de distintas disciplinas, es decir que tenga las mismas características, aun cuando las disciplinas sean diferentes. La teoría General de Sistemas propone cómo construir modelos, y en tanto considera que en el mundo conceptual los modelos no pueden ser isomórficos a la realidad, sino solo entre sí; ya que son creados por nuestra mente. A Korzybski le debemos el concepto ¨el mapa no es el territorio¨. Todos los intentos humanos por explicar la realidad son y han sido construcciones, representaciones, modelos de la realidad, mapas de territorios. Toda conceptualización parte de una percepción, limitada por nuestra propia estructura humana. Bertalanffy propone a través de la Teoría General de Sistemas buscar ¨principios y leyes aplicables a sistemas generalizados, o a sus subclases, sin importar su particular género, la naturaleza de sus elementos componentes y las relaciones o ?fuerzas? que imperen entre ellos¨ (Bertalanffy, L.;1976:32). Define los Sistemas, ¨como complejos de elementos de interacción¨, distingue entre sistemas abiertos y sistemas cerrados, considerando que todos los sistemas vivos son abiertos al intercambio de materia, energía e información con el entorno. Toma de Cannon el concepto de homeostasis o equilibrio dinámico entre entradas y salidas, lo que le permite al sistema cambios continuos al mismo tiempo que predominan condiciones relativamente uniformes. Afirma que en los sistemas cerrados hay una tendencia hacia la desorganización y destrucción del orden, en contraposición con los sistemas vivientes que tienden hacia la mayor heterogeneidad y organización, con lo cual hace desaparecer la aparente contradicción entre entropía y evolución (Bertalanffy, L.;1976:41). Recoge de la Teoría de la Comunicación el concepto de información como entropía negativa, medida que favorece el orden y la organización. Considera el comportamiento teleológico de los sistemas vivos como algo definible en términos científicos, gracias a las nociones de adaptabilidad, intencionalidad y persecución de metas. Propone el principio de equifinalidad y lo define como ¨la tendencia a un estado final característico a partir de diferentes estados iniciales y por diferentes caminos, fundada en la interacción dinámica en un sistema abierto que alcanza un estado uniforme¨ (Bertalanffy, L.;1976:46). Según este principio, a partir de diferentes condiciones iniciales y por diferentes caminos se puede alcanzar el mismo estado final, y como consecuencia los sistemas vivientes, no pueden ser explicados en términos de causalidad, dado que las circunstancias iniciales no los determinan. Finalmente, toma de la cibernética la noción de retroalimentación y sus mecanismos de control que corrigen la desviación, manteniendo el sistema dentro de un equilibrio dinámico. Para Bertalanffy ¨la relación entre lenguaje y visión del mundo no es unidireccional sino recíproca... La estructura del lenguaje parece determinar que rasgos de la realidad serán abstraídos, y con ello qué forma adaptarán las categorías del pensamiento. Por otro lado, el cómo sea visto el mundo determina y forma el lenguaje¨ (Bertalanffy, L.; 1976:250).
Bateson, G. Fundador de una nueva perspectiva epistemológica. Uno de los conceptos fundamentales es la pauta que conecta. Cuál es la pauta que conecta a todas las criaturas vivientes, cuáles son las configuraciones, las formas y las relaciones que pueden ser observadas en todos los fenómenos, para construir una concepción totalizadora de la mente. Propone la noción de contexto como elemento fundamental de toda comunicación y significación, no se debe aislar el fenómeno de su contexto, pues cada fenómeno tiene sentido y significado dentro del contexto que se produce. Tomo de Jung, el concepto de pleroma, para referirse al mundo de la física y de los objetos materiales, el concepto de creatura para designar el mundo de los seres vivos, que no puede ser explicado desde una causalidad unidireccional. Se necesita un nuevo lenguaje que permita describir la recursividad de todos los elementos que se mueven conjuntamente en un proceso, para ello son fundamentales las nociones de información y relación.
Bateson propone una concepción totalizadora sobre la naturaleza del orden y la organización en los sistemas humanos . La mente individual es inmanente pero no sólo en el cuerpo. ¨El concepto de mente surgió, para mí, como un reflejo de partes más amplias y múltiples partes del mundo natural afuera del ser pensante¨ (Bateson, G.; 1976:449). Es inmanente también en los caminos y mensajes fuera del cuerpo; y hay una mente más amplia de la cual la mente individual es solo un subsistema..., pero es también inmanente en el sistema social totalmente interconectado y la ecología planetaria¨ (Brockman, J., Bateson G.; 1977:5).
Teoría de la comunicación: Shannon y Weaver y el grupo de ¨Universidad invisible¨ . Ante la pregunta formulada por Lasswell: Quién le dice que, a quién, y con qué efecto. Se consideraron seis elementos: fuente, encodificador, mensaje, canal, decodificador y receptor. Shannon agrega un nuevo elemento en un primer momento, como fuente de ruido con relación a la interferencia o perturbación en la calidad de la transmisión de la información. El concepto de ruido fue asociado a la noción de entropía propuesta por la segunda ley de la termodinámica. La redundancia que evita la distorsión y el fracaso de la transmisión de información, es considerada como entropía negativa, siendo un elemento indispensable para eliminar los efectos distorsionantes del ruido y favorecer una comunicación efectiva. El modelo Shannon y Weaver ofrece una lectura lineal y diádica de la comunicación, al incorporar el concepto de retroalimentación de la Cibernética se obtiene una mayor comprensión de las complejas comunicaciones interpersonales y se pasa de la concepción lineal a la circular. Esta teoría influye en Jacobson, proponiendo aquello que Winkin llama Modelo Telegráfico de la Comunicación (Winkin, Y.; 1984:18).
La cibernética y sus tres niveles de complejidad. Cibernética significa el arte de gobernar, ¨la cibernética pertenece a la ciencia de la pauta y la organización¨ (Keeney, B.;1987:77). Según Foerster, la historia de la cibernética se puede observar como un proceso que se desarrolla entre niveles de complejidad: una cibernética de 0 orden , implícita; una cibernética de 1er orden y una cibernética de 2do orden; esta última, es una reflexión sobre la reflexión de la cibernética, imposible de acceder a un nivel más superior, se cierra la argumentación produciéndose una clausura organizacional, que sólo puede trascenderse a sí misma dentro de sí misma (Maturana, H. Von Foerster, H.; 1988).
Cibernética de 2do orden. Fue Maruyama quien inventó el término (Hoffman, L.; 1981:49). Consideró que todo sistema viviente depende para su supervivencia de dos procesos: morfostasis y morfogénesis. El primero se refiere al mantenimiento de la constancia de un sistema a través de mecanismos de retroalimentación negativa. El segundo, a la desviación, variabilidad del sistema a través de mecanismos de retroalimentación positiva.
Con los trabajos de Prigogine sobre Orden a partir de la fluctuación (Prigogine, I. Stengers I.; 1990: Cap.VI). Se empieza a considerar que la desviación y los procesos que promueven el desorden y la desorganización, no necesariamente son destructivos. Las desviaciones o fluctuaciones, si se mantienen y no son contrarrestadas por mecanismos correctores, producen una bifurcación que genera un salto cualitativo hacia una nueva organización. Aquí la ampliación de la desviación y los mecanismos de retroalimentación positiva, procesos favorecedores del cambio son considerados fundamentales para la evolución de los sistemas vivientes.
Los desarrollos de la física quántica, los aportes de Wittgenstein, de McCulloch, de Foerster, Maturana y Varela constituyen los pilares de esta cibernética de segundo orden o cibernética de los sistemas observantes, diferenciándola de la cibernética de los Sistemas observados. Para Foerster la reintroducción del observador, la pérdida de la neutralidad y de la objetividad, son requisitos fundamentales para una epistemología de los seres vivientes. La respuesta a la pregunta: ¨¿Las leyes de la naturaleza, los objetos, una fórmula matemática, los números, las leyes, son descubrimientos o invenciones? Define la posición epistemológica del observador, ya que considere la realidad como trascendente a ser descubierta, o se defina como inventor o constructor de la realidad observada.

§ 2. La relación conocimiento y lenguaje en la cibernética de segundo orden

La cibernética de segundo orden, o Cibernética de la cibernética, como la denominó Von Foerster, es el Manifiesto Constructivista. Emerge aquí una teoría del observador, que tiene que ser una teoría social y lingüística, cuya noción central es información-organización. Para el ¨cibernetista¨, la noción de organización se encarna tanto en las interacciones químicas cerebrales como en las interacciones lingüísticas. Se habla de un constructivismo biológico y de un constructivismo social o construccionismo. En el constructivismo biológico tenemos: el constructivismo de von Foerster, el ¨traer a la mano¨ de Maturana y el constructivismo radical de von Glasersfeld.
La epistemología tradicional plantea que los datos son incorporados a través del sistema sensorial y luego procesados por el cerebro para generar una acción. La descripción objetiva del mundo entra en crisis y se plantea la teoría del observador: ¨El observador existe como ser vivo en un espacio de coherencia operacional con su circunstancia, en acoplamiento estructural. Por lo tanto no pasa cualquier cosa, sólo pasa lo que puede pasar de acuerdo a la dinámica estructural del sistema y de la circunstancia¨ (Maturana, H.;1990c:22). El conocimiento no es recibido pasivamente, sino que es construido por un sujeto cognoscente y, la función de la cognición es adaptativa y sirve para la organización del mundo experiencial, no para el descubrimiento de una realidad objetiva ontológica. El conocimiento no es una representación de la realidad.
La cibernética de segundo se orden se caracteriza por:
1-Foerster señala, que el sistema nervioso posee una cualidad inherente: todas las señales enviadas desde los elementos sensoriales a la corteza cerebral son iguales, la llamó la Codificación indiferenciada. No existe entre ellas ninguna distinción cualitativa; su frecuencia y amplitud son variables, pero no existe ningún indicio cualitativo.
2-Glasersfeld anota, que si uno habla una determinada lengua ve el mundo de determinada manera, el lenguaje construye la realidad.
3-Retoman de los escépticos , la idea de que no tenemos manera de llegar al mundo externo si no es a través de nuestra experiencia de él, por más que lo viéramos correctamente, no tendríamos modos de saber que nuestra visión es correcta.
4-El organismo tiene una forma física y una modalidad de comportamiento que encaja en el ambiente en que le toca vivir. En cuanto al conocimiento muchas de estas circunstancias son puramente lógicas. Todo nuevo pensamiento debe adaptarse al esquema previo de estructuras conceptuales de un modo que no provoque contradicciones (Piaget, J.;1979:12). El conocimiento no nos brinda una representación de un mundo independiente, sino un mapa de lo que puede hacerse en el ambiente en el que uno tuvo experiencias.
5-La autorregulación y la autoorganización de los organismos, nos permite entender el conocimiento como el resultado de una autorregulación. Todo lo que llamamos conocimiento, se crea o se construye a partir de un material que ya le es accesible al sujeto que conoce. Sólo podemos conocer lo que hemos creado. Desde la cibernética, los sistemas autorregulados son sistemas cerrados desde el punto de vista de la información. Shannon plantea: a-El significado no se traslada del emisor al receptor; lo único que se trasladan son las señales; b-Las señales sólo son señales en tanto en cuanto alguien puede decodificarlas, y para decodificarlas hay que conocer el significado (Shannon, C.;1948:379-423 y 623-656). Lo único que podemos es contemplar las señales desde adentro, desde el receptor.
Esta posición teórica es un modo de pensar y no una descripción del mundo. No se propone describir ninguna realidad absoluta, sino sólo los fenómenos de nuestra experiencia. La bisociación que plantea von Foerster es la que hay entre el observador y lo observado. La comprensión de esta interdependencia de observador y mundo observado, va más allá de la teoría de la relatividad de Einstein, según la cual las observaciones no son absolutas, sino relativas al punto de vista de un observador (por ejemplo, su sistema de coordenadas: Einstein) y el postulado de la relación borrosa de Heisenberg, según la cual las observaciones afectan a lo observado de modo tal que impiden toda esperanza del observador en cuanto a poder predecir (por ejemplo, su incerteza es absoluta: Heisenberg) (Foerster, von H.;1991:63). La descripción (del universo) implica a aquel que describe (que lo observa); Shrödinger lo había formulado ya así: ¨Toda imagen del mundo es y sigue siendo una construcción de su propia mente; su existencia no puede ser probada de otra manera¨ (Schrödinger, E.;1985:18).
La cibernética de segundo orden no sólo tiene, sino que es una epistemología, que lleva la atención desde los ?sistemas observados? hasta ?los sistemas que observan?, al entender a toda noción cibernética (a toda noción en general) como dependiente del observador. ¿Cómo conocemos?, es una pregunta que va más por los procesos, por la generación del problema estudiado, que por su sustancia. La pregunta ya no es ¿qué es lo que conocemos?, sino ¿Cómo es que conocemos?
G. Spencer Brown considera que el punto de partida de todo conocer implica trazar una distinción, ¨un universo se engendra cuando se separa o aparta un espacio y los límites pueden trazarse en cualquier lugar que nos plazca¨ (Spencer Brown, G.;1973:v). Maturana dirá: ¨todo acto de conocer trae un mundo a la mano¨ (Maturana, H.; 1986:13). Con ello se refiere a las operaciones de distinción del observador que traen a la mano lo distinguido. La operación de distinción especifica lo distinguido, y lo distinguido surge de la nada con la operación que lo distingue y lo configura. Para el observador lo distinguido surge como si hubiese existido antes de la distinción y como si fuese a existir siempre después de ella. Es en la explicación de la experiencia de la distinción que surge el problema de la realidad. La realidad aparece como lo que es, un argumento explicativo. Lo que el observador explica es su experiencia; y, la experiencia es lo que el observador distingue que le pasa, en circunstancias tales que el explicar es también una experiencia a explicar. Las habilidades del observador surgen en su operar como ser vivo en el lenguaje.
Foerster bautiza la expresión de Maturana: ¨Todo lo dicho es dicho por un observador¨ como el teorema número 1 de Maturana y él le añade aquello que denomina el corolario número 1 de von Foerster: ¨Todo lo dicho es dicho a un observador¨. De esta forma conecta tres conceptos: primero, el concepto de un observador caracterizado por ser capaz de hacer descripciones. Y esto a causa del teorema número 1, porque evidentemente lo que un observador dice es una descripción. El segundo concepto es el del lenguaje. El teorema número 1 y el corolario número 1 conectan a dos observadores a través del lenguaje. El tercer concepto es el de la sociedad, esos dos observadores constituyen el núcleo de una sociedad. Los observadores usan un lenguaje que forman la sociedad al usar el lenguaje. Los pilares de una teoría del observador ya están construidos, uno es el cálculo de las recursiones infinitas y el otro es el cálculo de la autorreferencia (Foerster, von H.;1991:90).
Para la concepción constructivista se considera que hay efectivamente un continuo proceso circular y repetitivo en el que la epistemología determinan lo que vemos; esto establece lo que hacemos; a la vez nuestras acciones organizan lo que sucede en nuestro mundo, que luego determina nuestra epistemología. El conocimiento es la computación de descripciones de una realidad. Foerster utiliza este término en el sentido amplio como ¨toda operación por medio de la cual se transforma, modifica, rearregla, ordena, y demás, entidades físicas observadas (?objetos?) o sus representaciones (?símbolos?) (Watzlawick, p.;1988:43). Toda descripción se sustenta en otras descripciones que son también cómputos, proponiendo definir el conocimiento como procesos ilimitadamente recursivos de cálculo, es decir, la computación de la computación de la computación, etc. En su análisis del lenguaje von Foerster plantea que éste, se lo puede considerar desde dos puntos de vista diferentes: el lenguaje en su apariencia, que se refiere a las cosas como son, o el lenguaje en su función, que se refiere a las nociones que cada uno tiene de las cosas. Desde la primera posición, uno es un observador independiente, separado del universo y el lenguaje es monológico, denotativo, descriptivo, sintáctico; dice como eso es. Desde la segunda posición, uno es un actor participante en mutua interacción con los otros y el lenguaje es dialógico, connotativo, constructivo, semántico, participativo, es como uno dice. ¨Cuando pronuncio algo, no me estoy refiriendo a algo allí afuera. Más bien, genero en ud., toco, por decir ?como un violinista pulsando una cuerda, lo toca a ud. con su música ?toda una resonancia de correlatos¨ (Segal, L.; 1986; 148). Lo que sucede es que nuestras lenguas están ideadas sobre el verbo ser, que al mismo tiempo que conecta las palabras, desde siempre ha estado ligado a la existencia ontológica. El constructivismo no niega la realidad, lo que hace es sostener que uno no puede conocer una realidad independiente; no formula declaraciones ontológicas.
Una vez argumentada esta posición, von Foerster presenta una hipótesis fundamental: todas estas nociones tienen que ver con una actividad computante por parte de un observador-operador, el cual genera las distinciones que configuran un orden; o fracasa en generarlas, siendo el desorden la manifestación de dicho fracaso; o genera más orden en este dominio y menos en aquél; o compara ordenes diferentes que permiten decir que aquí hay más complejidad que allí. La emergencia de estas nociones son dependientes del lenguaje usado por el observador, que en realidad no es ¨un¨ observador, sino una comunidad de observadores en interacción. Es ese lenguaje el que da el marco de referencia que permite crear distinciones donde no las había. El lenguaje no es un instrumento que describe lo que sucede en un mundo independiente, sino el nombre de un contexto que construye lo que sucede, y es una elección en el dominio cognitivo. Einstein hablando con Heisenberg le dice: ¨En una teoría es imposible aceptar solo magnitudes observables. Es más bien la que decide lo que se puede observar¨ (Watzlawick, P.; 1988:87).
Para concluir, podríamos afirmar que los principios que determinan la relación entre conocimiento y lenguaje en la cibernética de segundo orden, se podrían formular parodiando dos principios de la física contemporánea:
Principio de indeterminación. Dado que la posición y la velocidad de un objeto no pueden ser medidas al mismo tiempo, el momento de un observable cambia con respecto al observador, por lo tanto la medida exacta de un objeto es incierta. El observador está siempre incluido en lo observado.
Principio de Complementariedad. Extensión del Principio de Indeterminación. Considera que los distintos lenguajes posibles y los distintos puntos de vista sobre el sistema son complementarios. No existe la posibilidad de un único punto de vista, no existe un universo sino un multiverso, construido a partir de lenguajes.

CONSTRUCCIÓN DE REDES

Dar clic

MODELOS MATEMÁTICOS DE ADMINISTRACIÓN

La TGA recibió muchas contribuciones de la matemática bajo la forma de modelo matemáticos con la finalidad de proporcionar soluciones a los problemas empresariales.

La teoría matemática aplicada a la solución de los problemas administrativos se conoce como Investigación de operaciones (IO). La denominación IO consagrada universalmente es genética e incierta. La teoría matemática no es propiamente una escuela, al igual que la teoría de las relaciones humanas, sino una corriente que se encuentra en varios autores que enfatizan el proceso de decisión y lo tratan de modo lógico y racional a través de un enfoque cuantitativo, detertministico y lógico.

Los temas principales de la administración de loas operaciones de la administración de las operaciones son:

1. Operaciones.- Se enfoca a los procesos productivos y productividad, especialmente cuando la globalización impone productos mundiales.

2. servicios.- Se trata de los sistemas de operaciones de servicios.

3. Calidad.- Involucra el tratamiento estadístico de la calidad, la mejora continua, programas de calidad total y certificación ISO.

4. Estrategia de operaciones.- Define la alineación estratégica y la naturaleza estratégica de la administración de las operaciones.

5. Tecnología.- L a utilización de la computadora en la administración de las operaciones.

ORÍGENES DE LA TEORÍA MATEMÁTICA EN LA ADMINISTRACIÓN

La teoría matemática SURGIÓ en la teoría administrativa a partir de cinco causas:

1. El trabajo clásico sobre Teoría de juegos de Von Neumann y Morgesnstem. (1947) y de Wald (1954) y Savage (1954) para la teoría estadística de la decisión.

2. El estudio del proceso de decisión por Herbert Simon entonces un autor conductista, y el surgimiento de las teorías de las Decisiones resaltaron una mayor importancia a la decisión que a la acción que de ella se deriva en la dinámica organizacional.

3. La existencia de decisiones programables.- Simon había definido las decisiones cualitativas (no programables y tomadas por el hombre) y las decisiones cuantitativas (programables y programadas por el hombre) y las decisiones cualitativas (no programables y programadas para la maquina).

4. La computadora proporciono medios para la aplicación y desarrollo de técnicas de las matemáticas más complejas y sofisticadas.

5. La teoría matemática surgió con la utilización de la investigación operacional (IO) en el transcurso de la segunda Guerra Mundial.

La teoría matemática pretendió crear una ciencia de la administración con bases lógicas y matemáticas.

PROCESO DECISORIO

La teoría matemática disloca el énfasis en la acción para ubicarlo en la decisión que antecede. El proceso de decisión es su fundamento básico. Constituye el campo de estudio de la teoría de la decisión que es aquí considerada un desdoblamiento de la Teoría matemática.
La toma de decisión se estudia bajo dos perspectivas, la del proceso y la del problema.

1. Perspectiva del proceso. Se concentra en las etapas de la toma de decisión. Dentro de esa perspectiva, el objetivo es seleccionar la mejor alternativa de decisión. Enfoca el proceso de decisión como una secuencia de tres etapas simples:
a.- Definición del problema.
b.- Cuales son las posibles alternativas de solución al problema.
c.- Cual es la mejor alternativa de solución (elección)
Su énfasis esta en la búsqueda de los medios alternativos. Es un enfoque criticado por preocuparse con el procedimiento y no con el contenido de la decisión.

2. Perspectiva del Problema.- Esta orientado hacia la resolución de problemas.
En loa perspectiva del problema, el que toma la decisión aplica métodos cuantitativos para transformar el proceso de decisión lo mas racional posible concentrándose en la definición y en la elaboración de la ecuación del problema a ser resuelto.

MODELOS MATEMÁTICOS EN LA ADMINISTRACIÓN

La teoría matemática busca construir modelos matemáticos capaces de simular situaciones reales en la empresa.

El modelo es la representación de algo o el estándar de algo a ser hecho.
En la teoría matemática, el modelo se utilizaba como simulación de situaciones futuras y evaluaciones de la probabilidad de que suceda.

A.- PROBLEMAS ESTRUCTURADOS

Un problema estructurado es aquel que puede ser perfectamente definido pues sus principales variables son conocidas
El problema estructurado puede ser subdividido en tres categorías:
a.- Decisiones con certeza.- Las variables y sus consecuencias es deterministica.
b.- Decisiones bajo riesgo.- Las variables son conocidas y la relación entre la consecuencia y la acción se conoce en términos probabilísticas.
c.- Decisiones bajo incertidumbre.- Las variables son conocidas, pero las probabilidades para evaluar la consecuencia de una acción son desconocidas o no son determinadas con algún grado de certeza.

B.- PROBLEMAS NO ESTRUCTURADOS

El problema no estructurado no puede ser claramente definido pues una o más de sus variables se desconoce o no puede determinarse con algún grado de confianza. El modelo matemático puede tratar a los problemas estructurados y no estructurados con ventajas, porque:
a.- Permite descubrir una situación mejor
b.- Descubre relaciones del problema
c.- Permite tratar el problema en su conjunto y considerar todas las variables principales simultáneamente.
d.- Es susceptible de ampliación por etapas e incluye factores abandonados en las descripciones verbales.
e.- Utiliza técnicas de las matemáticas objetivas y lógicas.
f.- Conduce a una solución segura y cualitativa.
g.- Permite respuestas inmediatas y en escala gigantesca por medio de computadoras y equipos electrónicos.

C.- TIPOS DE DECISIÓN

En función de los problemas estructurados y no estructurados, las técnicas de toma de decisiones (programadas y no programadas) funcionan de la siguiente forma:

INVESTIGACIÓN DE OPERACIONES

La rama de investigación de operaciones (IO) proviene de la administración científica la cual agrego métodos matemáticos como tecnología computacional y una orientación más amplia.
La IO adopta el método científico como estructura para la solución de los problemas con fuerte énfasis en el juicio objetito.

Las definiciones de la IO varían desde técnicas de las matemáticas específicas hasta el método científico en sí. En general, esas definiciones incluyen tres aspectos básicos comunes al enfoque de la IO a la toma de decisión administrativa.

1. Visión sistemática de los problemas que van a ser resueltos.
2. Uso del método científico en la resolución de problemas.
3. Utilización de técnicas especificas de estadística, probabilidad y modelos matemáticos para ayudar al que toma las decisiones a solucionar los problemas.

La IO enfoca el análisis de operaciones de un sistema y no solamente como un problema particular, la IO utiliza:

1. La probabilidad en el enfoque de la IO para decisiones bajo condiciones de riesgo e incertidumbre.
2. La estadística en sistematización y análisis de datos para obtener soluciones.
3. La matemática en la formulación de modelos cuantitativos.

La IO es “la aplicación de métodos, técnicas e instrumentos científicos a problemas que involucran las operaciones de un sistema, a modo de proporcionar, a los que controlan el sistema, soluciones optimas para el problema en cuestión”.

Las matemáticas pretenden transformar en científico, racional y lógico el proceso de decisión en las organizaciones.

La metodología de la IO utiliza seis fases:

1. Formular el problema.- Con el análisis del sistema y sus objetivos y las alternativas de acción.
2. Construir un modelo matemático. para representar el sistema- El modelo expresa el sistema el sistema como un conjunto de variables, de las cuales una por una por lo menos, esta sujeta a control.
3. Deducir una solución del modelo.- La solución optima de un modelo por medio del prosees analítico o del proceso numérico.
4. Probar el modelo y la solución del modelo.- Construir el modelo que represente la realidad y que debe ser capaz de prever con exactitud el efecto de los cambios en el sistema y la eficiencia general del sistema.
5. Establecer control sobre la solución.- la solución de un modelo será adecuado mientras las variables incontroladas conserven sus valores y las relaciones entre las variables se mantengan constantes.
6. Colocar la solución en funcionamiento (implementación). La solución necesita ser probada y transformada en una serie de procesos operacionales.