sábado, 15 de enero de 2011

TEORIA GENERAL DE LOS SISTEMAS

PROYECTO DE TEORIA DE LOS SISTEMAS

PROYECTO DE TEORIA DE LOS SISTEMAS (VIDEO)

TEORÍA GENERAL DE SISTEMAS

La teoría general de sistemas (TGS) o teoría de sistemas o enfoque sistémico es un esfuerzo de estudio interdisciplinario que trata de encontrar las propiedades comunes a entidades llamadas sistemas. Éstos se presentan en todos los niveles de la realidad, pero que tradicionalmente son objetivos de disciplinas académicas diferentes. Su puesta en marcha se atribuye al biólogo austriaco Ludwig von Bertalanffy, quien acuñó la denominación a mediados del siglo XX.

LA CIBERNETICA, LENGUAJE Y CONSTRUCTIVISMO

El problema del lenguaje es asunto del siglo XX. De hecho, se ha llamado a esta la filosofía del "giro lingüístico". Habida cuenta -como lo decía Parménides en su "Poema"- de lo "trillado de ese camino", no se quiere insistir aquí "sobre lo mismo"
La relación conocimiento y lenguaje en la cibernética de segundo orden

¨...dentro de pocos años, si queda todavía algún filósofo no familiarizado con los principales avances de la inteligencia artificial, será justo acusarlo de incompetencia profesional: y que dictar cursos de filosofía de la mente, de epistemología, sin examinar los aspectos vinculados con la inteligencia artificial será tan irresponsable como dictar cursos de física que no incluyen la teoría cuántica¨.


Aron Sloman


Sumario:

Introducción:

El problema del lenguaje es asunto del siglo XX. De hecho, se ha llamado a esta la filosofía del "giro lingüístico". Habida cuenta -como lo decía Parménides en su "Poema"- de lo "trillado de ese camino", no se quiere insistir aquí "sobre lo mismo". "Lo mismo" en este caso es reconstruir la historia del "problema del lenguaje" del Cratilo a Rorty, pasando por Occam, Frege , Wittgenstein , y los muy importantes aportes en este sentido de Husserl y Heidegger . "Lo otro", lo que se propone aquí, reconociendo todos esos antecedentes es: comprender el lenguaje como fundado-fundador de la cultura, por el sujeto que lo juega, en el despliegue de la autonomía de la significación.
Se quiere, pues, ir directamente a la tesis según la cual hay una "cibernética de segundo orden". Ésta, sin más, es el "juego de lenguaje" que "crea mundo" cuando "el sujeto juega el lenguaje en el mundo". No hay otra esfera o campo para ese juego que la cultura.
En su momento Wittgenstein pensó que ¨cada forma de lenguaje es una forma de vida¨ (Wittgenstein, L.;1988:§22). La "cibernética de segundo orden" es la teoría del conocimiento (corriente y científico, gnoseología y epistemología) que, en nuestro entender, lleva la precitada tesis a sus consecuencias.
§ 1. Estado del Arte:
Nos adentramos aquí, en aquello que consideramos las fuentes más inmediatas de la cibernética de segundo orden:
Austin , Searle y Strawson: la performatividad en el lenguaje (J. F. Lyotard ) Aquí el centro de la reflexión gira en torno de los actos de habla, y dentro de estos actos, sobre su aspecto pragmático. Si el lenguaje se redujera a la estructura sujeto-predicado o se aceptara que todo predicado tiene que hacer relación a hechos del mundo: cómo se explicaría predicados como ruegos, órdenes, súplicas. En concreto, cuando se dice ?¡Salte del salón!? De hecho, no hay, en rigor, referente ostensible. El problema, pues, es que el referente no es el único criterio para establecer la significatividad del lenguaje. Sobre Los juegos del lenguaje, Lyotard hace tres observaciones: primera, las reglas no tiene su legitimación en ellas mismas, forman parte de un contrato o no entre los jugadores. La segunda, que a falta de reglas no hay juego, que un cambio en una de ellas modifica el juego, que una jugada o un enunciado no cumpla con las reglas esta fuera del juego. La tercera, todo enunciado debe ser considerado como una jugada hecha en un juego. Llegando a un primer principio del método a seguir: que hablar es combatir, en el sentido de jugar, y que los actos del lenguaje se derivan de una agonística general (Lyotard, J. F.; 1989: 27).
Desde esta perspectiva la investigación se legitima desde la performatividad. La investigación en nuestros tiempos se halla determinada por ¨enriquecimiento de las argumentaciones y la complicación de la administración de pruebas¨ (Lyotard, J. F.; 1989:79). La investigación científica no usa lenguajes denotativos, si lo hace, lo hace desde una condición pragmática, la de formular sus propias reglas y pedir al destinatario que las acepte. Define por lo tanto una axiomática, la comprensión de los símbolos que serán empleados en el lenguaje propuesto, la forma de respetar las expresiones que fueron aceptadas y sus operaciones. Ello es evidente, a propósito de nuestro ensayo, en los sistemas computacionales y cibernéticos. La axiomática se constituye como un metalenguaje que determina las condiciones formales de la misma, ese metalenguaje es la lógica. Una lógica que requiere las propiedades de un sistema formal: la consistencia, la completud sintáctica, la decidibilidad y la independencia de axiomas unos de otros (Lyotard, J. F.; 1989:80).
En cuanto a la administración de la prueba, que en principio es aceptada como una parte de la argumentación destinada al asentimiento de los destinatarios, pasa al control de otros juego del lenguaje, donde lo que se ventila no es la verdad, sino la performatividad, es decir la mejor relación input/output. La performatividad al aumentar la capacidad de administrar la prueba, aumenta la de tener razón y la de una mayor justicia. La relación entre ciencia y técnica se invierte, la complejidad de las argumentaciones obliga a sofisticar los medios de probar, beneficiándose con ello la performatividad.
La transmisión del conocimiento se ve afectado por la performatividad. ¨Cuando el criterio de pertinencia es la performatividad del sistema social admitido, es decir, cuando se adopta la perspectiva de la teoría de sistemas, se hace de la enseñanza superior un subsistema del sistema social, y se aplica al mismo criterio de performatividad a la solución de cada uno de esos problemas¨ (Lyotard, J. F.; 1989: 89).
La neurociencia (neurobiología , neuropsicología ). Con la célula entramos en lo que conocemos con el nombre de vida: un sistema de autoconservación, de autoduplicación y consumidor de energía. La ventaja de los organismos pruricelulares es que las células individuales pueden especializarse, ellas permitieron la formación de un sistema nervioso, requerimiento fundamental de la inteligencia significativa (Churchland, P.;1992:182). Nos encontramos con el funcionamiento del sistema nervioso constituido por células que llevan impulsos llamadas neuronas. Su interconexión, llamada sinapsis se realiza por medio de una sustancia química llamada neurotransmisor. Las neuronas si se comparan con las compuertas lógicas en la UCP de un ordenador, una compuerta lógica recibe información de no más de dos fuentes, mientras que una neurona recibe información de más de mil. Una compuerta lógica emite salidas a una frecuencia metronómica, 106 Hertz, por ejemplo; una neurona varía entre 0 y 102 hertz. La salida de la compuerta lógica está y debe estar temporalmente coordinada con la de todas las demás compuertas; las salidas neuronales no están así coordinadas. La función de una compuerta lógica es la transformación de información binaria en otra información binaria; la función de una neurona, si podemos incluso hablar en singular, parece ser la transformación de conjuntos de frecuencias ondulatorias en otras frecuencias ondulatorias. Por último, las propiedades funcionales de una compuerta lógica son fijas, la de una neurona son plásticas, por el surgimiento de nuevas conexiones sinápticas o el degeneramiento de las viejas. Pero en la confrontación inteligencia natural e inteligencia artificial se van logrando acercamientos, es Shannon quien demuestra como los circuitos que aparecen en un aparato electrónico, se pueden expresar mediante ecuaciones semejantes a las de Boole, vale decir que un sistema dual de verdadero y falso, es equivalente a los estados ?abierto? y ?cerrado? de un circuito. (Shannon, C.;1938:1-11).Comienza así la fabricación de máquinas capaces de ejecutar operaciones de verdad lógica y da la pauta para la programación de los computadores como un problema de lógica formal, es decir como un lenguaje.
La ?Epistemología experimental¨: McCulloch, Bateson , y Bertalanffy. La epistemología ha
salido del campo de la filosofía y se ha adentrado en el de la biología a través de los biólogos experimentales contemporáneos (Keeney, B.;1987:27).
Fue el propio McCulloch quien le dió el título genérico de epistemología experimental y Bateson la considera como una rama de la ciencia combinada con una rama de la filosofía. Como ciencia, la epistemología es el estudio de cómo los organismos particulares o agregados de organismos conocen, piensan y deciden. Como filosofía, la epistemología es el estudio de los límites necesarios y otras características de los procesos del conocer, pensar y decidir (Bateson, G.;1993a:242). Desde este punto de vista la epistemología se ubica bajo la perspectiva de cómo conocen los que conocen, es decir en las propiedades del observador y no en las propiedades del objeto, aquello que se conoce. Afirma Bateson, ¨toda experiencia es subjetiva. Son nuestros cerebros los que fabrican las imágenes que creemos percibir¨ (Bateson, G.;1993a:42).
La Teoría General de Sistemas nos aporta a esta concepción a través de Bertalanffy, quien propone encontrar las correspondencias o isomorfismos entre sistemas de todo tipo, un Modelo de Sistema General que sea compatible con otros modelos de distintas disciplinas, es decir que tenga las mismas características, aun cuando las disciplinas sean diferentes. La teoría General de Sistemas propone cómo construir modelos, y en tanto considera que en el mundo conceptual los modelos no pueden ser isomórficos a la realidad, sino solo entre sí; ya que son creados por nuestra mente. A Korzybski le debemos el concepto ¨el mapa no es el territorio¨. Todos los intentos humanos por explicar la realidad son y han sido construcciones, representaciones, modelos de la realidad, mapas de territorios. Toda conceptualización parte de una percepción, limitada por nuestra propia estructura humana. Bertalanffy propone a través de la Teoría General de Sistemas buscar ¨principios y leyes aplicables a sistemas generalizados, o a sus subclases, sin importar su particular género, la naturaleza de sus elementos componentes y las relaciones o ?fuerzas? que imperen entre ellos¨ (Bertalanffy, L.;1976:32). Define los Sistemas, ¨como complejos de elementos de interacción¨, distingue entre sistemas abiertos y sistemas cerrados, considerando que todos los sistemas vivos son abiertos al intercambio de materia, energía e información con el entorno. Toma de Cannon el concepto de homeostasis o equilibrio dinámico entre entradas y salidas, lo que le permite al sistema cambios continuos al mismo tiempo que predominan condiciones relativamente uniformes. Afirma que en los sistemas cerrados hay una tendencia hacia la desorganización y destrucción del orden, en contraposición con los sistemas vivientes que tienden hacia la mayor heterogeneidad y organización, con lo cual hace desaparecer la aparente contradicción entre entropía y evolución (Bertalanffy, L.;1976:41). Recoge de la Teoría de la Comunicación el concepto de información como entropía negativa, medida que favorece el orden y la organización. Considera el comportamiento teleológico de los sistemas vivos como algo definible en términos científicos, gracias a las nociones de adaptabilidad, intencionalidad y persecución de metas. Propone el principio de equifinalidad y lo define como ¨la tendencia a un estado final característico a partir de diferentes estados iniciales y por diferentes caminos, fundada en la interacción dinámica en un sistema abierto que alcanza un estado uniforme¨ (Bertalanffy, L.;1976:46). Según este principio, a partir de diferentes condiciones iniciales y por diferentes caminos se puede alcanzar el mismo estado final, y como consecuencia los sistemas vivientes, no pueden ser explicados en términos de causalidad, dado que las circunstancias iniciales no los determinan. Finalmente, toma de la cibernética la noción de retroalimentación y sus mecanismos de control que corrigen la desviación, manteniendo el sistema dentro de un equilibrio dinámico. Para Bertalanffy ¨la relación entre lenguaje y visión del mundo no es unidireccional sino recíproca... La estructura del lenguaje parece determinar que rasgos de la realidad serán abstraídos, y con ello qué forma adaptarán las categorías del pensamiento. Por otro lado, el cómo sea visto el mundo determina y forma el lenguaje¨ (Bertalanffy, L.; 1976:250).
Bateson, G. Fundador de una nueva perspectiva epistemológica. Uno de los conceptos fundamentales es la pauta que conecta. Cuál es la pauta que conecta a todas las criaturas vivientes, cuáles son las configuraciones, las formas y las relaciones que pueden ser observadas en todos los fenómenos, para construir una concepción totalizadora de la mente. Propone la noción de contexto como elemento fundamental de toda comunicación y significación, no se debe aislar el fenómeno de su contexto, pues cada fenómeno tiene sentido y significado dentro del contexto que se produce. Tomo de Jung, el concepto de pleroma, para referirse al mundo de la física y de los objetos materiales, el concepto de creatura para designar el mundo de los seres vivos, que no puede ser explicado desde una causalidad unidireccional. Se necesita un nuevo lenguaje que permita describir la recursividad de todos los elementos que se mueven conjuntamente en un proceso, para ello son fundamentales las nociones de información y relación.
Bateson propone una concepción totalizadora sobre la naturaleza del orden y la organización en los sistemas humanos . La mente individual es inmanente pero no sólo en el cuerpo. ¨El concepto de mente surgió, para mí, como un reflejo de partes más amplias y múltiples partes del mundo natural afuera del ser pensante¨ (Bateson, G.; 1976:449). Es inmanente también en los caminos y mensajes fuera del cuerpo; y hay una mente más amplia de la cual la mente individual es solo un subsistema..., pero es también inmanente en el sistema social totalmente interconectado y la ecología planetaria¨ (Brockman, J., Bateson G.; 1977:5).
Teoría de la comunicación: Shannon y Weaver y el grupo de ¨Universidad invisible¨ . Ante la pregunta formulada por Lasswell: Quién le dice que, a quién, y con qué efecto. Se consideraron seis elementos: fuente, encodificador, mensaje, canal, decodificador y receptor. Shannon agrega un nuevo elemento en un primer momento, como fuente de ruido con relación a la interferencia o perturbación en la calidad de la transmisión de la información. El concepto de ruido fue asociado a la noción de entropía propuesta por la segunda ley de la termodinámica. La redundancia que evita la distorsión y el fracaso de la transmisión de información, es considerada como entropía negativa, siendo un elemento indispensable para eliminar los efectos distorsionantes del ruido y favorecer una comunicación efectiva. El modelo Shannon y Weaver ofrece una lectura lineal y diádica de la comunicación, al incorporar el concepto de retroalimentación de la Cibernética se obtiene una mayor comprensión de las complejas comunicaciones interpersonales y se pasa de la concepción lineal a la circular. Esta teoría influye en Jacobson, proponiendo aquello que Winkin llama Modelo Telegráfico de la Comunicación (Winkin, Y.; 1984:18).
La cibernética y sus tres niveles de complejidad. Cibernética significa el arte de gobernar, ¨la cibernética pertenece a la ciencia de la pauta y la organización¨ (Keeney, B.;1987:77). Según Foerster, la historia de la cibernética se puede observar como un proceso que se desarrolla entre niveles de complejidad: una cibernética de 0 orden , implícita; una cibernética de 1er orden y una cibernética de 2do orden; esta última, es una reflexión sobre la reflexión de la cibernética, imposible de acceder a un nivel más superior, se cierra la argumentación produciéndose una clausura organizacional, que sólo puede trascenderse a sí misma dentro de sí misma (Maturana, H. Von Foerster, H.; 1988).
Cibernética de 2do orden. Fue Maruyama quien inventó el término (Hoffman, L.; 1981:49). Consideró que todo sistema viviente depende para su supervivencia de dos procesos: morfostasis y morfogénesis. El primero se refiere al mantenimiento de la constancia de un sistema a través de mecanismos de retroalimentación negativa. El segundo, a la desviación, variabilidad del sistema a través de mecanismos de retroalimentación positiva.
Con los trabajos de Prigogine sobre Orden a partir de la fluctuación (Prigogine, I. Stengers I.; 1990: Cap.VI). Se empieza a considerar que la desviación y los procesos que promueven el desorden y la desorganización, no necesariamente son destructivos. Las desviaciones o fluctuaciones, si se mantienen y no son contrarrestadas por mecanismos correctores, producen una bifurcación que genera un salto cualitativo hacia una nueva organización. Aquí la ampliación de la desviación y los mecanismos de retroalimentación positiva, procesos favorecedores del cambio son considerados fundamentales para la evolución de los sistemas vivientes.
Los desarrollos de la física quántica, los aportes de Wittgenstein, de McCulloch, de Foerster, Maturana y Varela constituyen los pilares de esta cibernética de segundo orden o cibernética de los sistemas observantes, diferenciándola de la cibernética de los Sistemas observados. Para Foerster la reintroducción del observador, la pérdida de la neutralidad y de la objetividad, son requisitos fundamentales para una epistemología de los seres vivientes. La respuesta a la pregunta: ¨¿Las leyes de la naturaleza, los objetos, una fórmula matemática, los números, las leyes, son descubrimientos o invenciones? Define la posición epistemológica del observador, ya que considere la realidad como trascendente a ser descubierta, o se defina como inventor o constructor de la realidad observada.

§ 2. La relación conocimiento y lenguaje en la cibernética de segundo orden

La cibernética de segundo orden, o Cibernética de la cibernética, como la denominó Von Foerster, es el Manifiesto Constructivista. Emerge aquí una teoría del observador, que tiene que ser una teoría social y lingüística, cuya noción central es información-organización. Para el ¨cibernetista¨, la noción de organización se encarna tanto en las interacciones químicas cerebrales como en las interacciones lingüísticas. Se habla de un constructivismo biológico y de un constructivismo social o construccionismo. En el constructivismo biológico tenemos: el constructivismo de von Foerster, el ¨traer a la mano¨ de Maturana y el constructivismo radical de von Glasersfeld.
La epistemología tradicional plantea que los datos son incorporados a través del sistema sensorial y luego procesados por el cerebro para generar una acción. La descripción objetiva del mundo entra en crisis y se plantea la teoría del observador: ¨El observador existe como ser vivo en un espacio de coherencia operacional con su circunstancia, en acoplamiento estructural. Por lo tanto no pasa cualquier cosa, sólo pasa lo que puede pasar de acuerdo a la dinámica estructural del sistema y de la circunstancia¨ (Maturana, H.;1990c:22). El conocimiento no es recibido pasivamente, sino que es construido por un sujeto cognoscente y, la función de la cognición es adaptativa y sirve para la organización del mundo experiencial, no para el descubrimiento de una realidad objetiva ontológica. El conocimiento no es una representación de la realidad.
La cibernética de segundo se orden se caracteriza por:
1-Foerster señala, que el sistema nervioso posee una cualidad inherente: todas las señales enviadas desde los elementos sensoriales a la corteza cerebral son iguales, la llamó la Codificación indiferenciada. No existe entre ellas ninguna distinción cualitativa; su frecuencia y amplitud son variables, pero no existe ningún indicio cualitativo.
2-Glasersfeld anota, que si uno habla una determinada lengua ve el mundo de determinada manera, el lenguaje construye la realidad.
3-Retoman de los escépticos , la idea de que no tenemos manera de llegar al mundo externo si no es a través de nuestra experiencia de él, por más que lo viéramos correctamente, no tendríamos modos de saber que nuestra visión es correcta.
4-El organismo tiene una forma física y una modalidad de comportamiento que encaja en el ambiente en que le toca vivir. En cuanto al conocimiento muchas de estas circunstancias son puramente lógicas. Todo nuevo pensamiento debe adaptarse al esquema previo de estructuras conceptuales de un modo que no provoque contradicciones (Piaget, J.;1979:12). El conocimiento no nos brinda una representación de un mundo independiente, sino un mapa de lo que puede hacerse en el ambiente en el que uno tuvo experiencias.
5-La autorregulación y la autoorganización de los organismos, nos permite entender el conocimiento como el resultado de una autorregulación. Todo lo que llamamos conocimiento, se crea o se construye a partir de un material que ya le es accesible al sujeto que conoce. Sólo podemos conocer lo que hemos creado. Desde la cibernética, los sistemas autorregulados son sistemas cerrados desde el punto de vista de la información. Shannon plantea: a-El significado no se traslada del emisor al receptor; lo único que se trasladan son las señales; b-Las señales sólo son señales en tanto en cuanto alguien puede decodificarlas, y para decodificarlas hay que conocer el significado (Shannon, C.;1948:379-423 y 623-656). Lo único que podemos es contemplar las señales desde adentro, desde el receptor.
Esta posición teórica es un modo de pensar y no una descripción del mundo. No se propone describir ninguna realidad absoluta, sino sólo los fenómenos de nuestra experiencia. La bisociación que plantea von Foerster es la que hay entre el observador y lo observado. La comprensión de esta interdependencia de observador y mundo observado, va más allá de la teoría de la relatividad de Einstein, según la cual las observaciones no son absolutas, sino relativas al punto de vista de un observador (por ejemplo, su sistema de coordenadas: Einstein) y el postulado de la relación borrosa de Heisenberg, según la cual las observaciones afectan a lo observado de modo tal que impiden toda esperanza del observador en cuanto a poder predecir (por ejemplo, su incerteza es absoluta: Heisenberg) (Foerster, von H.;1991:63). La descripción (del universo) implica a aquel que describe (que lo observa); Shrödinger lo había formulado ya así: ¨Toda imagen del mundo es y sigue siendo una construcción de su propia mente; su existencia no puede ser probada de otra manera¨ (Schrödinger, E.;1985:18).
La cibernética de segundo orden no sólo tiene, sino que es una epistemología, que lleva la atención desde los ?sistemas observados? hasta ?los sistemas que observan?, al entender a toda noción cibernética (a toda noción en general) como dependiente del observador. ¿Cómo conocemos?, es una pregunta que va más por los procesos, por la generación del problema estudiado, que por su sustancia. La pregunta ya no es ¿qué es lo que conocemos?, sino ¿Cómo es que conocemos?
G. Spencer Brown considera que el punto de partida de todo conocer implica trazar una distinción, ¨un universo se engendra cuando se separa o aparta un espacio y los límites pueden trazarse en cualquier lugar que nos plazca¨ (Spencer Brown, G.;1973:v). Maturana dirá: ¨todo acto de conocer trae un mundo a la mano¨ (Maturana, H.; 1986:13). Con ello se refiere a las operaciones de distinción del observador que traen a la mano lo distinguido. La operación de distinción especifica lo distinguido, y lo distinguido surge de la nada con la operación que lo distingue y lo configura. Para el observador lo distinguido surge como si hubiese existido antes de la distinción y como si fuese a existir siempre después de ella. Es en la explicación de la experiencia de la distinción que surge el problema de la realidad. La realidad aparece como lo que es, un argumento explicativo. Lo que el observador explica es su experiencia; y, la experiencia es lo que el observador distingue que le pasa, en circunstancias tales que el explicar es también una experiencia a explicar. Las habilidades del observador surgen en su operar como ser vivo en el lenguaje.
Foerster bautiza la expresión de Maturana: ¨Todo lo dicho es dicho por un observador¨ como el teorema número 1 de Maturana y él le añade aquello que denomina el corolario número 1 de von Foerster: ¨Todo lo dicho es dicho a un observador¨. De esta forma conecta tres conceptos: primero, el concepto de un observador caracterizado por ser capaz de hacer descripciones. Y esto a causa del teorema número 1, porque evidentemente lo que un observador dice es una descripción. El segundo concepto es el del lenguaje. El teorema número 1 y el corolario número 1 conectan a dos observadores a través del lenguaje. El tercer concepto es el de la sociedad, esos dos observadores constituyen el núcleo de una sociedad. Los observadores usan un lenguaje que forman la sociedad al usar el lenguaje. Los pilares de una teoría del observador ya están construidos, uno es el cálculo de las recursiones infinitas y el otro es el cálculo de la autorreferencia (Foerster, von H.;1991:90).
Para la concepción constructivista se considera que hay efectivamente un continuo proceso circular y repetitivo en el que la epistemología determinan lo que vemos; esto establece lo que hacemos; a la vez nuestras acciones organizan lo que sucede en nuestro mundo, que luego determina nuestra epistemología. El conocimiento es la computación de descripciones de una realidad. Foerster utiliza este término en el sentido amplio como ¨toda operación por medio de la cual se transforma, modifica, rearregla, ordena, y demás, entidades físicas observadas (?objetos?) o sus representaciones (?símbolos?) (Watzlawick, p.;1988:43). Toda descripción se sustenta en otras descripciones que son también cómputos, proponiendo definir el conocimiento como procesos ilimitadamente recursivos de cálculo, es decir, la computación de la computación de la computación, etc. En su análisis del lenguaje von Foerster plantea que éste, se lo puede considerar desde dos puntos de vista diferentes: el lenguaje en su apariencia, que se refiere a las cosas como son, o el lenguaje en su función, que se refiere a las nociones que cada uno tiene de las cosas. Desde la primera posición, uno es un observador independiente, separado del universo y el lenguaje es monológico, denotativo, descriptivo, sintáctico; dice como eso es. Desde la segunda posición, uno es un actor participante en mutua interacción con los otros y el lenguaje es dialógico, connotativo, constructivo, semántico, participativo, es como uno dice. ¨Cuando pronuncio algo, no me estoy refiriendo a algo allí afuera. Más bien, genero en ud., toco, por decir ?como un violinista pulsando una cuerda, lo toca a ud. con su música ?toda una resonancia de correlatos¨ (Segal, L.; 1986; 148). Lo que sucede es que nuestras lenguas están ideadas sobre el verbo ser, que al mismo tiempo que conecta las palabras, desde siempre ha estado ligado a la existencia ontológica. El constructivismo no niega la realidad, lo que hace es sostener que uno no puede conocer una realidad independiente; no formula declaraciones ontológicas.
Una vez argumentada esta posición, von Foerster presenta una hipótesis fundamental: todas estas nociones tienen que ver con una actividad computante por parte de un observador-operador, el cual genera las distinciones que configuran un orden; o fracasa en generarlas, siendo el desorden la manifestación de dicho fracaso; o genera más orden en este dominio y menos en aquél; o compara ordenes diferentes que permiten decir que aquí hay más complejidad que allí. La emergencia de estas nociones son dependientes del lenguaje usado por el observador, que en realidad no es ¨un¨ observador, sino una comunidad de observadores en interacción. Es ese lenguaje el que da el marco de referencia que permite crear distinciones donde no las había. El lenguaje no es un instrumento que describe lo que sucede en un mundo independiente, sino el nombre de un contexto que construye lo que sucede, y es una elección en el dominio cognitivo. Einstein hablando con Heisenberg le dice: ¨En una teoría es imposible aceptar solo magnitudes observables. Es más bien la que decide lo que se puede observar¨ (Watzlawick, P.; 1988:87).
Para concluir, podríamos afirmar que los principios que determinan la relación entre conocimiento y lenguaje en la cibernética de segundo orden, se podrían formular parodiando dos principios de la física contemporánea:
Principio de indeterminación. Dado que la posición y la velocidad de un objeto no pueden ser medidas al mismo tiempo, el momento de un observable cambia con respecto al observador, por lo tanto la medida exacta de un objeto es incierta. El observador está siempre incluido en lo observado.
Principio de Complementariedad. Extensión del Principio de Indeterminación. Considera que los distintos lenguajes posibles y los distintos puntos de vista sobre el sistema son complementarios. No existe la posibilidad de un único punto de vista, no existe un universo sino un multiverso, construido a partir de lenguajes.

CONSTRUCCIÓN DE REDES

Dar clic

MODELOS MATEMÁTICOS DE ADMINISTRACIÓN

La TGA recibió muchas contribuciones de la matemática bajo la forma de modelo matemáticos con la finalidad de proporcionar soluciones a los problemas empresariales.

La teoría matemática aplicada a la solución de los problemas administrativos se conoce como Investigación de operaciones (IO). La denominación IO consagrada universalmente es genética e incierta. La teoría matemática no es propiamente una escuela, al igual que la teoría de las relaciones humanas, sino una corriente que se encuentra en varios autores que enfatizan el proceso de decisión y lo tratan de modo lógico y racional a través de un enfoque cuantitativo, detertministico y lógico.

Los temas principales de la administración de loas operaciones de la administración de las operaciones son:

1. Operaciones.- Se enfoca a los procesos productivos y productividad, especialmente cuando la globalización impone productos mundiales.

2. servicios.- Se trata de los sistemas de operaciones de servicios.

3. Calidad.- Involucra el tratamiento estadístico de la calidad, la mejora continua, programas de calidad total y certificación ISO.

4. Estrategia de operaciones.- Define la alineación estratégica y la naturaleza estratégica de la administración de las operaciones.

5. Tecnología.- L a utilización de la computadora en la administración de las operaciones.

ORÍGENES DE LA TEORÍA MATEMÁTICA EN LA ADMINISTRACIÓN

La teoría matemática SURGIÓ en la teoría administrativa a partir de cinco causas:

1. El trabajo clásico sobre Teoría de juegos de Von Neumann y Morgesnstem. (1947) y de Wald (1954) y Savage (1954) para la teoría estadística de la decisión.

2. El estudio del proceso de decisión por Herbert Simon entonces un autor conductista, y el surgimiento de las teorías de las Decisiones resaltaron una mayor importancia a la decisión que a la acción que de ella se deriva en la dinámica organizacional.

3. La existencia de decisiones programables.- Simon había definido las decisiones cualitativas (no programables y tomadas por el hombre) y las decisiones cuantitativas (programables y programadas por el hombre) y las decisiones cualitativas (no programables y programadas para la maquina).

4. La computadora proporciono medios para la aplicación y desarrollo de técnicas de las matemáticas más complejas y sofisticadas.

5. La teoría matemática surgió con la utilización de la investigación operacional (IO) en el transcurso de la segunda Guerra Mundial.

La teoría matemática pretendió crear una ciencia de la administración con bases lógicas y matemáticas.

PROCESO DECISORIO

La teoría matemática disloca el énfasis en la acción para ubicarlo en la decisión que antecede. El proceso de decisión es su fundamento básico. Constituye el campo de estudio de la teoría de la decisión que es aquí considerada un desdoblamiento de la Teoría matemática.
La toma de decisión se estudia bajo dos perspectivas, la del proceso y la del problema.

1. Perspectiva del proceso. Se concentra en las etapas de la toma de decisión. Dentro de esa perspectiva, el objetivo es seleccionar la mejor alternativa de decisión. Enfoca el proceso de decisión como una secuencia de tres etapas simples:
a.- Definición del problema.
b.- Cuales son las posibles alternativas de solución al problema.
c.- Cual es la mejor alternativa de solución (elección)
Su énfasis esta en la búsqueda de los medios alternativos. Es un enfoque criticado por preocuparse con el procedimiento y no con el contenido de la decisión.

2. Perspectiva del Problema.- Esta orientado hacia la resolución de problemas.
En loa perspectiva del problema, el que toma la decisión aplica métodos cuantitativos para transformar el proceso de decisión lo mas racional posible concentrándose en la definición y en la elaboración de la ecuación del problema a ser resuelto.

MODELOS MATEMÁTICOS EN LA ADMINISTRACIÓN

La teoría matemática busca construir modelos matemáticos capaces de simular situaciones reales en la empresa.

El modelo es la representación de algo o el estándar de algo a ser hecho.
En la teoría matemática, el modelo se utilizaba como simulación de situaciones futuras y evaluaciones de la probabilidad de que suceda.

A.- PROBLEMAS ESTRUCTURADOS

Un problema estructurado es aquel que puede ser perfectamente definido pues sus principales variables son conocidas
El problema estructurado puede ser subdividido en tres categorías:
a.- Decisiones con certeza.- Las variables y sus consecuencias es deterministica.
b.- Decisiones bajo riesgo.- Las variables son conocidas y la relación entre la consecuencia y la acción se conoce en términos probabilísticas.
c.- Decisiones bajo incertidumbre.- Las variables son conocidas, pero las probabilidades para evaluar la consecuencia de una acción son desconocidas o no son determinadas con algún grado de certeza.

B.- PROBLEMAS NO ESTRUCTURADOS

El problema no estructurado no puede ser claramente definido pues una o más de sus variables se desconoce o no puede determinarse con algún grado de confianza. El modelo matemático puede tratar a los problemas estructurados y no estructurados con ventajas, porque:
a.- Permite descubrir una situación mejor
b.- Descubre relaciones del problema
c.- Permite tratar el problema en su conjunto y considerar todas las variables principales simultáneamente.
d.- Es susceptible de ampliación por etapas e incluye factores abandonados en las descripciones verbales.
e.- Utiliza técnicas de las matemáticas objetivas y lógicas.
f.- Conduce a una solución segura y cualitativa.
g.- Permite respuestas inmediatas y en escala gigantesca por medio de computadoras y equipos electrónicos.

C.- TIPOS DE DECISIÓN

En función de los problemas estructurados y no estructurados, las técnicas de toma de decisiones (programadas y no programadas) funcionan de la siguiente forma:

INVESTIGACIÓN DE OPERACIONES

La rama de investigación de operaciones (IO) proviene de la administración científica la cual agrego métodos matemáticos como tecnología computacional y una orientación más amplia.
La IO adopta el método científico como estructura para la solución de los problemas con fuerte énfasis en el juicio objetito.

Las definiciones de la IO varían desde técnicas de las matemáticas específicas hasta el método científico en sí. En general, esas definiciones incluyen tres aspectos básicos comunes al enfoque de la IO a la toma de decisión administrativa.

1. Visión sistemática de los problemas que van a ser resueltos.
2. Uso del método científico en la resolución de problemas.
3. Utilización de técnicas especificas de estadística, probabilidad y modelos matemáticos para ayudar al que toma las decisiones a solucionar los problemas.

La IO enfoca el análisis de operaciones de un sistema y no solamente como un problema particular, la IO utiliza:

1. La probabilidad en el enfoque de la IO para decisiones bajo condiciones de riesgo e incertidumbre.
2. La estadística en sistematización y análisis de datos para obtener soluciones.
3. La matemática en la formulación de modelos cuantitativos.

La IO es “la aplicación de métodos, técnicas e instrumentos científicos a problemas que involucran las operaciones de un sistema, a modo de proporcionar, a los que controlan el sistema, soluciones optimas para el problema en cuestión”.

Las matemáticas pretenden transformar en científico, racional y lógico el proceso de decisión en las organizaciones.

La metodología de la IO utiliza seis fases:

1. Formular el problema.- Con el análisis del sistema y sus objetivos y las alternativas de acción.
2. Construir un modelo matemático. para representar el sistema- El modelo expresa el sistema el sistema como un conjunto de variables, de las cuales una por una por lo menos, esta sujeta a control.
3. Deducir una solución del modelo.- La solución optima de un modelo por medio del prosees analítico o del proceso numérico.
4. Probar el modelo y la solución del modelo.- Construir el modelo que represente la realidad y que debe ser capaz de prever con exactitud el efecto de los cambios en el sistema y la eficiencia general del sistema.
5. Establecer control sobre la solución.- la solución de un modelo será adecuado mientras las variables incontroladas conserven sus valores y las relaciones entre las variables se mantengan constantes.
6. Colocar la solución en funcionamiento (implementación). La solución necesita ser probada y transformada en una serie de procesos operacionales.


TÉCNICAS DE LA IO

Las principales técnicas de la IO Son:

• Teoría de juegos
• Teoría de las colas
• Teoría de los grafos
• Programación lineal.
• Programación dinámica.
• Análisis estadístico y cálculo de probabilidad.

TEORÍA DE LOS JUEGOS

1. Teoría de los juegos

Teoría de los juegos propuesta por los matemáticos Johann Von Neumann (1903-1957) y Oscar Morgenstern 1902-1962) propone una formulación matemática para la estrategia y el análisis de los c conflictos.

La situación de conflicto ocurre cuando un jugador gana y otro pierde, pues los objetivos en la mira son invisibles, antagónicos e incompatibles entre sí.

La cantidad de Estrategias disponibles es finita y, por lo tanto innumerable. Cada estrategia describe lo que será hecho en cualquier situación.

La teoría de los juegos se aplica cuando:

a.- La cantidad de participantes es finito
b.- Cada participante dispone de un número finito de cursos posibles de acción.
c.- Cada participante conoce los cursos de acción.
d.- Cada participante conoce los cursos de acción al alcance del adversario, aunque desconozca cual será el curso de acción escogido por él.
e.- Las dos partes intervienen cada vez y el juego es “suma cero”, es decir puramente competitivos los beneficios de de un jugador son las perdidas del otro, y viceversa.

Cuando los participantes escogen sus respectivos cursos de acción, el resultado del juego mostrara las perdidas o ganancias finitas, que son dependientes de los cursos de acción escogidos.

La teoría de los juegos posee una terminología propia.
a.- jugador.- Cada participante involucrado.
b.- Partido (o disputa). Cuando cada jugador escoge un curso de acción.
c.- Estrategia.- Regla de decisión por la cual el jugador determina su curso de acción. No siempre el jugador conoce la estrategia del adversario.
d.- Estrategia mixta.- Cuando el jugador usa todos sus cursos de acción disponibles en una proporción fija.
e.- Estrategia pura.- Cuando el jugador utiliza solamente un curso de acción.
f.- Matriz.- Es la tabla que muestra los resultados de todos los partidos posibles. Los números de la matriz representan los valores ganados por el jugador. Los valores negativos traducen perdidas.

TEORÍA DE LAS COLAS

TEORÍA DE LAS COLAS

La teoría de loas colas, es la teoría que cuida de los puntos de estrangulamiento y de los tiempos de espera, o sea, de las demoras observadas en algún punto de servicio.

En la teoría de las colas los puntos de interés son: el tiempo de espera de los clientes; la cantidad de clientes en cola; y la razón entre el tiempo de espera y el tiempo de prestación de servicio.

En una situación de cola, existen los siguientes componentes:

a.- Clientes u operaciones.
b.- Un pasaje o punto de servicio por donde deben pasar los clientes u operaciones.
c.- Un proceso de entrada (imputa).
d.- Una disciplina sobre la cola.
e.- Una organización de servicio.

TEORÍA DE LOS GRAFOS

TEORÍA DE LOS GRAFOS

La Teoría de los Grafos se basa en redes y diagramas de flechas para varias finalidades. Ofrece técnicas de planeación y programación por redes (APM, PERT, etcétera) utilizadas en actividades de construcción S.S. y de montaje industrial. Tanto PERT (Programa Evaluación Rebién Technique), como APM (Critical Path Method) son diagramas de flechas que identifican el camino crítico estableciendo una relación directa entre los factores de tiempo y costo, indicando el “óptimo económico” de un proyecto.

El Neopert es una variación simplificada del Pert, posibilitando economía de tiempo en su elaboración.

Las redes o diagramas de flechas se aplican en proyectos que involucran varias operaciones y etapas, varios recursos, diferentes órganos involucrados, plazos y costos mínimos.

Las redes o diagramas de flechas presentan las siguientes ventajas:

a.- Ejecución del proyecto en el plazo más corto y al menor costo.
b.- Permiten la interrelación de las etapas y operaciones del proyecto.
c.- Distribución óptima de los recursos disponibles y facilitan su redistribución en caso de modificaciones.
d-. Provee alternativas para la ejecución del proyecto y facilitan la toma de decisión.
e.- Identifican tares u operaciones “críticas” que no ofrecen holgura en el tiempo para su ejecución, y así concentrarse en ellas totalmente. Las tareas u operaciones “críticas” afectan el plazo para el término del proyecto global.
f.- Definen responsabilidad de órnanos o personas involucradas en el proyecto.

PROGRAMACIÓN LINEAL

PROGRAMACIÓN LINEAL

Programación lineal (PL) es una técnica matemática que permite analizar los recursos de producción para maximizar las utilidades y minimizar el costo. Es una técnica de solución de problemas que requiere la definición de los valores de las variables involucradas en la decisión para optimizar un objetivo a ser alcanzado dentro de un conjunto de limitaciones o restricciones, que constituyen las reglas del juego. Tales problemas involucran asignación de recursos, relaciones lineales entre las variables de la decisión, objetivo a alcanzar y restricciones.

El problema de la asignación involucra situaciones como programar la producción para maximizar utilidades, mezclar ingredientes de un producto para minimizar costos, seleccionar una cartera excelente de inversiones, asignar personal de ventas en un territorio o definir una red de transportes intermodales con el menor costo y mayor rapidez.

La PL presenta características como:

a.- Busca la posición óptima de relación con un objetivo. La finalidad es minimizar costos y maximizar beneficios en función del objetivo preestablecido.
b.- Supone la elección entre alternativas o combinación de esas alternativas.
c.- Considera límites o restricciones que cercan la decisión.
d.- Las variables deben ser cuantificables y tener relaciones lineales entre sí.

PROGRAMACIÓN DINÁMICA

PROGRAMACIÓN DINÁMICA

La programación dinámica se aplica en problemas que poseen varias etapas interrelacionadas, donde una decisión adecuada a cada una de las etapas debe adoptarse, sin perder de vista el objetivo final. Únicamente cuando el efecto de cada decisión se evalúa es que se efectúa la elección final.

PROBABILIDAD Y ANÁLISIS ESTADÍSTICO

PROBABILIDAD Y ANÁLISIS ESTADÍSTICO

El análisis estadístico es el método matemático utilizado para obtener la misma información con la menor cantidad de datos. Una de sus aplicaciones más conocidas es el control estadístico de calidad (CEQ) en el área de producción. Los métodos estadísticos permiten producir el máximo de información a partir de los datos disponibles.

La aplicación de la estadística a los problemas de calidad comenzó con Malter A. Shewhart en el transcurso de la Segunda Guerra Mundial.

a.- Control estadístico de calidad
La idea inicial era aplicar metodología estadística en la inspección de calidad y llegando a la calidad asegurada con la finalidad de obtener conformidad con las especificaciones y proporcionar alto grado de confiabilidad, durabilidad y desempeño en lo productos.
El control estadístico de la calidad se base en técnicas de determinación del momento en que los errores tolerados en la producción empiezan a rebasar los límites de tolerancia, es cuando la acción correctiva se hace necesaria.

El control estadístico de la calidad tiene por objetivo localizar desviaciones, errores, defectos o fallas en el proceso productivo, comparando el desempeño con el estándar establecido. Esa comparación puede realizarse de res formas:

1.- Control de calidad 100%.Corresponde a la inspección total de la calidad. El control de calidad (QC) total hace parte del proceso productivo y se inspeccionan todos los productos.
2.- Control de calidad por muestreos. Es el que se hace por lotes de muestras recogidos para su inspección. El control de muestras sustituye el control total ya que no interfiere en el proceso productivo. Si se aprueba la muestra todo el lote se aprueba. Se rechaza la muestra, se deberá inspeccionar todo el lote.
3.- Control de calidad aleatorio. Es el QC probabilística y consisten en inspeccionar solamente un cierto porcentaje de productos o del trabajo en forma aleatoria.
b.- Calidad total
J. M. Juran (nació en 1904). Extendió los conceptos de calidad para toda la empresa con su control total de la calidad.
Mientras el control estadístico de la calidad se aplica apenas en el nivel operacional, y de preferencia en el área de producción y manufactura, la calidad total extiende el concepto de calidad a toda la organización, desde el nivel operacional hasta el institucional, abarcando todo el personal de la oficina y de la base de la fábrica en un todo.

Las ventajas del TQC son:
1.- Reducción de desperdicios.
2.- Disminución de los ciclos de tiempo y de los tiempos de resultados.
3.- Mejoría de la calidad de los resultados (productos o servicios).
Ambos constituyen enfoques de incremento para así excelencia en la calida de los productos y procesos, además de proporcionar una formidable reducción de costos.

MODELOS DE ORGANIZACIÓN, DE KATZ Y KAHN

MODELO DE KATZ Y KAHN

Katz y Kahn desarrollaron un modelo de organización más amplio y complejo mediante la aplicación de la teoría de sistemas y la teoría de las organizaciones. Luego compararon las posibilidades de aplicación de las principales corrientes sociológicas y psicológicas en el análisis organizacional, proponiendo que la teoría de las organizaciones se libere de las restricciones y limitaciones de los enfoques previos y utilice la teoría general de sistemas.

Según el modelo propuesto por ellos, la organización presenta las siguientes características típicas de un sistema abierto:

a) La organización como sistema abierto

Para Katz y Kahn, la organización como sistema abierto presenta las siguientes características:

1. Importación (entradas): La organización recibe insumos del ambiente y necesita provisiones renovadas de energía de otras instituciones, o de personas, o del medio ambiente material. Ninguna estructura social es autosuficiente ni autocontenida.

2. Transformación (procesamiento): Los sistemas abiertos transforman la energía disponible. La organización procesa y transforma sus insumos en productos acabados, mano de obra, servicios, etc.

3. Exportación (salida): Los sistemas abiertos exportan ciertos productos hacia el ambiente.

4. Los sistemas como ciclos de eventos que se repiten: El funcionamiento de cualquier sistema consiste en ciclos repetitivos de importación- transformación- exportación.

5. Entropía negativa: Los sistemas abiertos necesitan moverse para detener el proceso entópico para reabastecerse de energía manteniendo indefinidamente su estructura organizacional.

6. Información como insumo: Los sistemas abiertos reciben también insumos de tipo informativo que proporcionan señales a la estructura sobre el ambiente y sobre el funcionamiento en relación con éste.

7. Estado de equilibrio y homeostasis dinámica: En este sentido, los sistemas abiertos se caracterizan por un estado de equilibrio: existe un flujo continuo de energía del ambiente exterior y una continua exportación de productos del sistema; sin embargo, el cociente de intercambio de energía y las relaciones entre las partes siguen siendo los mismos.

8. Diferenciación: La organización tiende a la multiplicación y elaboración de funciones, lo que le trae también multiplicación de roles y diferenciación interna.

9. Equifinalidad: El cual plantea que un sistema puede alcanzar, por diversos caminos, el mismo estado final, partiendo de diferentes condiciones iniciales.

10. Límites o fronteras: La organización presenta barreras entre el sistema y el ambiente. Éstos definen el campo de acción del sistema, como también su grado de apertura con relación al ambiente.

b) Las organizaciones como una clase de sistema social

Las organizaciones constituyen una clase o tipo de sistema social, el cual a su vez se considera una clase de sistema abierto. Como clase especial de sistema abierto, las organizaciones tienen propiedades que les son peculiares, pero comparten otras propiedades en común con todos los sistemas abiertos.
Todos los sistemas sociales, incluidas las organizaciones, se fundamentan en actividades estandarizadas de una cantidad de individuos. Esas actividades estandarizadas son complementarias o interdependientes con respecto a algún producto con resultado común. Ellas son repetidas, relativamente duraderas y relacionadas en espacio y en tiempo.

c) Características de primer orden

Las características de las organizaciones como sistemas sociales son:

1. Los sistemas sociales, al contrario de las demás estructuras básicas no tiene límites en amplitud. Los sistemas sociales no pueden representarse a través de modelos físicos.
2. Los sistemas sociales necesitan insumos de producción y de mantenimiento.
3. Los sistemas sociales son sistemas esencialmente inventados, creados por el hombre e imperfectos: se afirman en actitudes, percepciones, creencias, motivaciones, hábitos y expectativas de los seres humanos.
4. Los sistemas sociales presentan mayor variabilidad que los sistemas biológicos. Necesitan mecanismos de control para reducir la variabilidad e inestabilidad de las acciones humanas.
5. Las funciones, normas y valores constituyen los principales componentes del sistema social.
6. Las organizaciones sociales representan el desarrollo más claro de un estándar de funciones interrelacionadas que insinúan actividades prescritas o estadarizadas.
7. El concepto de inclusión parcial. La organización utiliza sólo los conocimientos y habilidades de las personas que le son importantes.
8. Con relación a su ambiente. El funcionamiento organizacional debe estudiarse con respecto a las transacciones continuas desarrolladas con el medio que lo rodea.

d) Cultura y clima organizacionales

Toda organización crea su propia cultura o clima, sus propios tabúes, costumbres y usos. El clima o cultura del sistema refleja las normas y valores del sistema formal, así como las disputas internas y externas y el ejercicio de la autoridad dentro del sistema, que se transmiten a los nuevos miembros del grupo.

e) Dinámica del sistema

Con el fin de mantenerse, las organizaciones sociales recurren al uso de mecanismos, establecen normas y valores para estimular las actividades requeridas y dispositivos de autoridad para dirigir el comportamiento organizacional.

f) Concepto de eficacia organizacional

Como sistemas abiertos, las organizaciones sobreviven solamente cuando son capaces de mantener negentropía, es decir, importación bajo todas las formas de cantidades mayores de energía que las que devuelven al ambiente como producto. La eficiencia pretende incrementos a través de soluciones técnica y económicas, mientras que la eficacia busca la maximización del rendimiento de la organización, por medios técnicos y económicos (eficiencia) y por medios políticos (no económicos).
g) La organización como un sistema de roles

Rol es el conjunto de actividades exigidas a un individuo que ocupa una determinada posición en una organización. Por tanto, la organización puede considerarse como constituida por roles o por un conjunto de actividades que se espera de los individuos.

MODELOS DE ORGANIZACIÓN, DE TAVISTOCK

MODELO SOCIOTÉCNICO DE TAVISTOCK
La organización se concibe como un sistema sociotécnico. Además de considerarse como un sistema abierto en interacción constante con su ambiente,la organización también se concibe como un sistema sociotécnico estructurado en dos subsistemas:

1. El subsistema técnico, que comprende las tareas que van a desempeñarse, las instalaciones físicas, el equipo e instrumentos utilizados, las técnicas operacionales, el ambiente físico y la duración de las tareas. En resumen el subsistema técnico cubre la tecnología, el territorio y el tiempo. Es el responsable de la eficiencia potencial de la organización.

2. El subsistema social, que comprende a los individuos, sus características físicas, psicológicas, las relaciones sociales entre los individuos así como las exigencias de su organización.

Los subsistemas técnico y social presentan una interrelación intima y dependientes y cada uno influye sobre el otro. El enfoque sociotécnico concibe a la organización como una combinación de tecnología y al mismo tiempo como un subsistema social. El subsistema tecnológico y el social se consideran en una interacción mutual y recíproca y cada uno determina al otro, hasta cierto punto.
El modelo de sistema abierto propuesto por el enfoque sociotécnico parte del supuesto de que toda organización “importa” del ambiente diversas cosas y utiliza estas importaciones en ciertos tipos de procesos de “conversión” para luego “exportar” productos, servicios, etc., que resultan del proceso de conversión.