domingo, 14 de marzo de 2010

TEORIA DE LA INFORMACION

La teoría de la información es una rama de las matemáticas aplicadas y la ingeniería eléctrica su participación radica en la cuantificación de la información. Históricamente, la teoría de la información fue desarrollada por Claude E. Shannon para encontrar los límites fundamentales en el procesamiento de señales en operaciones tales como la comprensión de datos de forma fiable y en el almacenamiento y comunicación de datos. Desde su creación, se ha ampliado para encontrar aplicaciones en muchas otras áreas, incluyendo la inferencia estadística, procesamiento de lenguaje natural, la criptografía en general, de redes distintas de las redes de comunicación - como en la neurobiología, la evolución y la función de la biología molecular Códigos de selección de los modelos en la ecología, la física térmica, la cuantificación cuántica, la detección de plagio y otras formas de análisis de datos.
Una medida clave de la información en la teoría que se conoce como entropía, que se expresa habitualmente por el número medio de bits necesarios para el almacenamiento o la comunicación. Intuitivamente, la entropía cuantifica la incertidumbre cuando se enfrentan a una variable aleatoria. Por ejemplo, una moneda vuelta (dos resultados igualmente probables) tendrá menos entropía que un rollo de un dado (6 resultados con igual probabilidad).
Aplicaciones de los temas fundamentales de la teoría de la información incluyen la comprensión de datos sin perdida (por ejemplo, los archivos ZIP), con perdida de comprensión de datos (por ejemplo MP3), y la cuantificación del canal(por ejemplo, DSL líneas). El campo está en la intersección de matemáticas, estadística, ciencias de la computación, la física, la neurobiología, y la ingeniería eléctrica. Su impacto ha sido crucial para el éxito de la invención del disco compacto, la viabilidad de los teléfonos móviles, el desarrollo de la Internet, el estudio de lingüística y de la percepción humana, la comprensión de los agujeros negros, y numerosos otros campos.
La información surge como la necesidad de comunicarnos. Pero a todo ello
¿Qué es información?
La información es un conjunto organizado de datos procesados que constituyen un mensaje sobre un determinado objeto, miembro de un sistema o todo el sistema, o de otra forma información es todo aquello que módica el estado de un sistema.
Otra definición la información es lo que se distribuye o intercambia con la telecomunicación [1].
Otra de definir la información es asociarla al intercambio de símbolos y darla como probabilidad del símbolo que se quiere transmitir (teoremas se Shannon).
A lo largo de este movimiento (proceso de transmitir la información) orientado linealmente se encuentra un conjunto de componentes que pueden ser distinguidos en forma precisa, por su ubicación y su función.
Fuente: Componente de naturaleza humana o mecánica que determina el tipo de mensaje que transmitirá y se grado de complejidad.
Transmisor: Recurso técnico que transmite el mensaje originado por la fuente de infamación en señales apropiadas.
Canal: medio generalmente físico que transporta las señales en el espacio .cumple una función simple de mediación y transporte.
Ruido: Expresión genérica utilizada para referirse a barias distorsiones en forma externa de la información.
Receptor: Recuso técnico que trasforma las señales recibidas en el mensaje concebido por la fuente de infamación.
Destino: componente terminal del proceso de comunicación, al cual esta dirigido el mensaje. Es el elemento decisivo para pronunciarse sobre la fila fidelidad de la comunicación.
Ahora daré un ejemplo de cómo se transmite la información:
El transmisor transforma el mensaje en una señal que es enviada por el canal de comunicación al receptor.
El receptor hace las beses de un transmisor invertido que cambia la señal transmitida en el mensaje y pasa este mensaje a su destinatario .Cuando yo hablo con usted, mi cerebro es la fuente de información, el suyo el destinatario, el sistema vocal es el transmisor, y su oído, con su octavo par de nervios craneados, es el receptor.
Errores en la transmisión de la información
Infortunadamente, estas características del proceso de transmitir la señal que se agreguen en esta ciertas cosas que no son proporcionadas deliberadamente por la fuente de información. Estos aditamentos indeseados pueden ser distorsiones de sonido (en telefonía, por ejemplo), o estáticos (en radiotelefonía), distorsiones de la forma o sombreada de una imagen (televisión), o errores de transmisión (telegrafía o facsímil). Todos estos cambios en la señal pueden ser llamados ruidos.
"Entonces el problema fundamental de la comunicación es el de reproducir en un momento dado, ya sea exacta o aproximadamente, un mensaje seleccionado en otro punto."
Los problemas que han de estudiarse de un sistema de comunicación tiene que ver con la cantidad de información, la capacidad del canal de de comunicación, el proceso de codificación que puede utilizarse para cambiar el mensaje de una señal y efectos del ruido.
Canales de la información
Las comunicaciones a través de un canal, como un cable o el uso un teléfono (móvil o fijo), esos canales a menudo no producen la reconstrucción exacta de una señal, el ruido, los períodos de silencio, y otras formas de perdida de calidad de la señal con frecuencia se degradan. ¿Cuánta información se puede esperar a comunicarse a través de una señal ruidosa (o de otra manera imperfecta)?
Consideremos el proceso de comunicación a través de un canal discreto. Un modelo simple del proceso se muestra a continuación:


Aquí X representa el espacio de los mensajes transmitidos, e Y el espacio de los mensajes recibidos durante una unidad de tiempo en nuestro canal. Sea p (y x) la probabilidad condicional función de distribución de Y dado X. Tendremos en cuenta p (y x) que se fija una propiedad inherente de nuestro canal de comunicación (en representación de la naturaleza de los ruidos de nuestro canal). Entonces la distribución conjunta de X e Y está totalmente determinado por nuestro canal y por nuestra elección de f (x), la distribución marginal de mensajes que optar por enviar a través del canal. Bajo estas restricciones, se desea maximizar la tasa de información, o la señal, podemos comunicarnos a través del canal. La medida apropiada para ello es la información mutua, y esta información mutua máxima se denomina capacidad de canal está dada por:


Esta capacidad tiene la siguiente propiedad relacionados con la comunicación en la tasa de información R (donde R es generalmente bits por símbolo). Para cualquier información sobre la tasa R 0, por lo suficientemente grande como N, existe un código de longitud N y la frecuencia ≥ R y un algoritmo de decodificación, de manera que la probabilidad máxima de error de bloque es ≤ ε, es decir, siempre es posible transmitir con error arbitrariamente pequeño bloque. Además, para cualquier tipo de R> C, es imposible transmitir con error arbitrariamente pequeño bloque.
Cantidad de la información
La teoría de la información se basa en la teoría de la probabilidad y estadística. Las cantidades más importantes de información son la entropía, la información de una variable aleatoria, y de información mutua, la cantidad de información en común entre dos variables aleatorias. La cantidad anterior indica la facilidad con que los datos del mensaje pueden ser comprimidos mientras que la segunda puede ser usada para encontrar el tipo de comunicación a través de un canal.
La elección de la base logarítmica en las siguientes fórmulas determina la unidad de la entropía de la información que se utiliza. La unidad más común de información es el bit, basado en el logaritmo binario. Otras unidades incluyen el nat, que se basa en el logaritmo natural, y la Hartley, que se basa en el logaritmo común.
En lo que sigue, una expresión de la forma

se considera
por convención, igual a cero cuando p = 0. Esto se justifica porque
para cualquier base logarítmica.
Entropía



La entropía de un ensayo de Bernoulli como una función de probabilidad de éxito, a menudo llamada la función de entropía binaria, b H (p). La entropía se maximiza en 1 bit por juicio cuando los dos resultados posibles son igualmente probables, como en una moneda imparcial lanzamiento.
La entropía, H, de una variable aleatoria discreta X es una medida de la cantidad de incertidumbre asociada con el valor de X.
Supongamos que uno transmite 1000 bits (0s y 1s). Si estos bits se conocen antes de la transmisión (a un valor determinado con una probabilidad absoluta), la lógica dicta que no se ha transmitido información. Sin embargo, si cada uno es igual e independientemente probabilidades de ser 0 o 1, 1000 bits (en el sentido teórico de información) se han transmitido. Entre estos dos extremos, la información se puede cuantificar de la siguiente manera. Si x es el conjunto de todos los mensajes (x 1 ,..., x n) que X puede ser, y p (x) es la probabilidad de X dado algunos


, Entonces la entropía de X se define:



(Aquí, I (x) es la propia información, que es la contribución de entropía de un mensaje individual, y es el valor esperado.) Una propiedad importante de la entropía es que se maximiza cuando todos los mensajes en el espacio de mensajes son equiprobables p (x) = 1 / n, -es decir, más imprevisible, en cuyo caso H (X) = log n.
El caso especial de la entropía de información para una variable aleatoria con dos resultados es la función de entropía binaria, generalmente llevados a la base logarítmica 2:



Información mutua
La información mutua mide la cantidad de información que puede obtenerse acerca de una variable aleatoria mediante la observación de otro. Es importante en la comunicación en el que se puede utilizar para maximizar la cantidad de información compartida entre los enviados y las señales recibidas. La información mutua de X respecto ha Y viene dada por:



donde S I (S ESPECÍFICOS I nformación mutua) es la información mutua punto a punto. Una propiedad básica de la información mutua es que



Es decir, sabiendo Y, podemos ahorrar un promedio de I (X, Y) bits de codificación X en comparación con no saber Y.
Información mutua es simétrica:



Codificación del canal
Codificación de la señal se refiere a la búsqueda de dicha casi óptimas códigos que pueden ser utilizados para transmitir datos a través de un canal ruidoso con un pequeño error en la codificación a un ritmo cercano a la capacidad del canal.
La teoría de la codificación del canal es una de las importantes y directas mayorías de las aplicaciones de la teoría de la información. Puede ser subdividido en codificación en origen la teoría y la codificación de canal. Usando una descripción estadística de los datos, teoría de la información cuantifica el número de bits necesarios para describir los datos, que es la entropía de la información de la fuente.
• fuente de compresión de datos (codificación): Hay dos fórmulas para el problema de compresión:
1. Comprensión de datos : los datos deben ser reconstruida con exactitud;
2. Comprensión de datos con pérdidas: asigna los bits necesarios para reconstruir los datos, dentro de un nivel de fidelidad especificado medido por una función de distorsión. Este subconjunto de la teoría de la información se llama tasa de distorsión.
• Códigos correctores de errores (codificación de canal): Si bien la compresión de datos elimina tanto la redundancia como sea posible, una corrección de errores de código añade sólo el tipo correcto de redundancia (es decir, corrección de errores), necesaria para transmitir los datos de manera eficaz y fielmente a través de un canal con ruido.
Esta división de la teoría de la codificación en la compresión y la transmisión se justifica por los teoremas de transmisión de información, o teoremas canal de origen a la separación que justifican el uso de bits como moneda universal de la información en muchos contextos. Sin embargo, estos teoremas sólo tienen en la situación en la que se transmitía un usuario desea comunicarse con un receptor del usuario. En los escenarios con más de un transmisor (el canal de acceso múltiple), más de un receptor (el canal de transmisión) o intermediario "ayudantes", o más general, las redes, la compresión seguido de la transmisión ya no puede ser óptimo. Se refiere a estos modelos de comunicación agente-multi.
Entonces a todo el proceso de transmisión de la información se le llama sistema de información.
Sistema de información
Sistema:

Es un conjunto organizado de cosas o partes interactuantes e interdependientes, que se relacionan formando un todo unitario y complejo.
Cabe aclarar que las cosas o partes que componen al sistema, no se refieren al campo físico (objetos), sino más bien al funcional. De este modo las cosas o partes pasan a ser funciones básicas realizadas por el sistema. Podemos enumerarlas en: entradas, procesos y salidas.

Entradas:
Las entradas son los ingresos del sistema que pueden ser recursos materiales, recursos humanos o información.
Las entradas constituyen la fuerza de arranque que suministra al sistema sus necesidades operativas.
Las entradas pueden ser:
- en serie: es el resultado o la salida de un sistema anterior con el cual el sistema en estudio está relacionado en forma directa.
- aleatoria: es decir, al azar, donde el termino "azar" se utiliza en el sentido estadístico. Las entradas aleatorias representan entradas potenciales para un sistema.
- retroacción: es la reintroducción de una parte de las salidas del sistema en sí mismo.

Clasificación extraída de apunte de cátedra.

Proceso:

El proceso es lo que transforma una entrada en salida, como tal puede ser una máquina, un individuo, una computadora, un producto químico, una tarea realizada por un miembro de la organización, etc.
En la transformación de entradas en salidas debemos saber siempre como se efectúa esa transformación. Con frecuencia el procesador puede ser diseñado por el administrador. En tal caso, este proceso se denomina "caja blanca". No obstante, en la mayor parte de las situaciones no se conoce en sus detalles el proceso mediante el cual las entradas se transforman en salidas, porque esta transformación es demasiado compleja. Diferentes combinaciones de entradas o su combinación en diferentes órdenes de secuencia pueden originar diferentes situaciones de salida. En tal caso la función de proceso se denomina una "caja negra".



Caja Negra:

La caja negra se utiliza para representar a los sistemas cuando no sabemos que elementos o cosas componen al sistema o proceso, pero sabemos que a determinadas corresponden determinadas salidas y con ello poder inducir, presumiendo que a determinados estímulos, las variables funcionaran en cierto sentido.

Salidas:

Las salidas de los sistemas son los resultados que se obtienen de procesar las entradas. Al igual que las entradas estas pueden adoptar la forma de productos, servicios e información. Las mismas son el resultado del funcionamiento del sistema o, alternativamente, el propósito para el cual existe el sistema.
Las salidas de un sistema se convierten en entrada de otro, que la procesará para convertirla en otra salida, repitiéndose este ciclo indefinidamente.

Relaciones:

Las relaciones son los enlaces que vinculan entre sí a los objetos o subsistemas que componen a un sistema complejo.

Podemos clasificarlas en:

- Simbióticas: es aquella en que los sistemas conectados no pueden seguir funcionando solos. A su vez puede subdividirse en unipolar o parasitaria, que es cuando un sistema (parásito) no puede vivir sin el otro sistema (planta); y bipolar o mutual, que es cuando ambos sistemas dependen entre si.
- Sinérgica: es una relación que no es necesaria para el funcionamiento pero que resulta útil, ya que su desempeño mejora sustancialmente al desempeño del sistema. Sinergia significa "acción combinada". Sin embargo, para la teoría de los sistemas el término significa algo más que el esfuerzo cooperativo. En las relaciones sinérgicas la acción cooperativa de subsistemas semi-independientes, tomados en forma conjunta, origina un producto total mayor que la suma de sus productos tomados de una manera independiente.
- Superflua: Son las que repiten otras relaciones. La razón de las relaciones superfluas es la confiabilidad. Las relaciones superfluas aumentan la probabilidad de que un sistema funcione todo el tiempo y no una parte del mismo. Estas relaciones tienen un problema que es su costo, que se suma al costo del sistema que sin ellas puede funcionar.

Clasificación obtenida de apunte de cátedra.

Atributos:

Los atributos de los sistemas, definen al sistema tal como lo conocemos u observamos. Los atributos pueden ser definidores o concomitantes: los atributos definidores son aquellos sin los cuales una entidad no sería designada o definida tal como se lo hace; los atributos concomitantes en cambio son aquellos que cuya presencia o ausencia no establece ninguna diferencia con respecto al uso del término que describe la unidad.




Contexto:

Un sistema siempre estará relacionado con el contexto que lo rodea, o sea, el conjunto de objetos exteriores al sistema, pero que influyen decididamente a éste, y a su vez el sistema influye, aunque en una menor proporción, influye sobre el contexto; se trata de una relación mutua de contexto-sistema.
Tanto en la Teoría de los Sistemas como en el método científico, existe un concepto que es común a ambos: el foco de atención, el elemento que se aísla para estudiar.
El contexto a analizar depende fundamentalmente del foco de atención que se fije. Ese foco de atención, en términos de sistemas, se llama límite de interés.
Para determinar este límite se considerarían dos etapas por separado:
a) La determinación del contexto de interés.
b) La determinación del alcance del límite de interés entre el contexto y el sistema.
a) Se suele representar como un círculo que encierra al sistema, y que deja afuera del límite de interés a la parte del contexto que no interesa al analista.
d) En lo que hace a las relaciones entre el contexto y los sistemas y viceversa. Es posible que sólo interesen algunas de estas relaciones, con lo que habrá un límite de interés relacional.
Determinar el límite de interés es fundamental para marcar el foco de análisis, puesto que sólo será considerado lo que quede dentro de ese límite.
Entre el sistema y el contexto, determinado con un límite de interés, existen infinitas relaciones. Generalmente no se toman todas, sino aquellas que interesan al análisis, o aquellas que probabilísticamente presentan las mejores características de predicción científica.

Rango:

En el universo existen distintas estructuras de sistemas y es factible ejercitar en ellas un proceso de definición de rango relativo. Esto produciría una jerarquización de las distintas estructuras en función de su grado de complejidad.
Cada rango o jerarquía marca con claridad una dimensión que actúa como un indicador claro de las diferencias que existen entre los subsistemas respectivos.
Esta concepción denota que un sistema de nivel 1 es diferente de otro de nivel 8 y que, en consecuencia, no pueden aplicarse los mismos modelos, ni métodos análogos a riesgo de cometer evidentes falacias metodológicas y científicas.
Para aplicar el concepto de rango, el foco de atención debe utilizarse en forma alternativa: se considera el contexto y a su nivel de rango o se considera al sistema y su nivel de rango.
Refiriéndonos a los rangos hay que establecer los distintos subsistemas. Cada sistema puede ser fraccionado en partes sobre la base de un elemento común o en función de un método lógico de detección.
El concepto de rango indica la jerarquía de los respectivos subsistemas entre sí y su nivel de relación con el sistema mayor.

Subsistemas:

En la misma definición de sistema, se hace referencia a los subsistemas que lo componen, cuando se indica que el mismo esta formado por partes o cosas que forman el todo.
Estos conjuntos o partes pueden ser a su vez sistemas (en este caso serían subsistemas del sistema de definición), ya que conforman un todo en sí mismos y estos serían de un rango inferior al del sistema que componen.
Estos subsistemas forman o componen un sistema de un rango mayor, el cual para los primeros se denomina macrosistema.

Variables:

Cada sistema y subsistema contiene un proceso interno que se desarrolla sobre la base de la acción, interacción y reacción de distintos elementos que deben necesariamente conocerse.
Dado que dicho proceso es dinámico, suele denominarse como variable, a cada elemento que compone o existe dentro de los sistemas y subsistemas.
Pero no todo es tan fácil como parece a simple vista ya que no todas las variables tienen el mismo comportamiento sino que, por lo contrario, según el proceso y las características del mismo, asumen comportamientos diferentes dentro del mismo proceso de acuerdo al momento y las circunstancias que las rodean.

Parámetro:

Uno de los comportamientos que puede tener una variable es el de parámetro, que es cuando una variable no tiene cambios ante alguna circunstancia específica, no quiere decir que la variable es estática ni mucho menos, ya que sólo permanece inactiva o estática frente a una situación determinada.

Operadores:

Otro comportamiento es el de operador, que son las variables que activan a las demás y logran influir decisivamente en el proceso para que este se ponga en marcha. Se puede decir que estas variables actúan como líderes de las restantes y por consiguiente son privilegiadas respecto a las demás variables. Cabe aquí una aclaración: las restantes variables no solamente son influidas por los operadores, sino que también son influenciadas por el resto de las variables y estas tienen también influencia sobre los operadores.

Retroalimentación:

La retroalimentación se produce cuando las salidas del sistema o la influencia de las salidas del sistema en el contexto, vuelven a ingresar al sistema como recursos o información.
La retroalimentación permite el control de un sistema y que el mismo tome medidas de corrección en base a la información retroalimentada.

Existen barios tipos de sistemas por ejemplo:
Sistemas estáticos: corresponde a todo sistema cuyos valores permanecen constantes en el tiempo.
Sistemas dinámicos: Un sistema dinámico es un sistema complejo que presenta un cambio o evolución de su estado en un tiempo, el comportamiento en dicho estado se puede caracterizar determinando los límites del sistema, los elementos y sus relaciones; de esta forma se puede elaborar modelos que buscan representar la estructura del mismo sistema.
Al definir los límites del sistema se hace, en primer lugar, una selección de aquellos componentes que contribuyan a generar los modos de comportamiento, y luego se determina el espacio donde se llevará a cabo el estudio, omitiendo toda clase de aspectos irrelevantes.
En cuanto a la elaboración de los modelos, los elementos y sus relaciones, se debe tener en cuenta:
1. Un sistema está formado por un conjunto de elementos en interacción.
2. El comportamiento del sistema se puede mostrar a través de diagramas causales. Hay varios tipos de variables: variables exógenas (son aquellas que afectan al sistema sin que éste las provoque) y las variables endógenas (afectan al sistema pero éste sí las provoca).
Un ejemplo de un sistema dinámico se puede ver en una especie de peces que se reproduce de tal forma que este año la cantidad de peces es Xk, el año próximo será Xk + 1. De esta manera podemos poner nombres a las cantidades de peces que habrá cada año, así: año inicial X0, año primero X1,........... ......, año k Xk.
Como se puede observar:

,se cumple para cualquier año k; lo cual significa que la cantidad de peces se puede determinar si se sabe la cantidad del año anterior. Por consiguiente esta ecuación representa un sistema dinámico.

Sistemas autónomos: Un Sistema Autónomo es un conjunto de redes y dispositivos que se encuentran administrados por una sola entidad (o en algunas ocasiones varias) que cuentan con una política común de definición de trayectorias para Internet.
Los Sistemas Autónomos se comunican entre sí mediante Border Gateway Protocol y se intercambian el tráfico de Internet que va de una red a la otra. A su vez cada Sistema Autónomo es como una Internet en pequeño, ya que su rol se llevaba a cabo por una sola entidad, típicamente un Proveedor de Servicio de Internet o una gran organización con conexiones independientes a múltiples redes, las cuales se apegaban a una sola y clara política de definición de trayectorias definida. La definición original (obsoleta) del Protocolo BGP (Border Gateway Protocol) fue necesaria debido a que múltiples organizaciones podían utilizar BGP con números de AS privados con un ISP que conecta a todas estas organizaciones a Internet. Aún considerando que el ISP podía soportar múltiples sistemas autónomos, Internet solo considera la política de definición de trayectorias establecida por el ISP. Por lo tanto, el ISP debería contar con un ASN registrado.
Técnicamente un Sistema Autónomo se define como “un grupo de redes IP que poseen una política de rutas propia e independiente”. Esta definición hace referencia a la característica fundamental de un Sistema Autónomo: realiza su propia gestión del tráfico que fluye entre él y los restantes Sistemas Autónomos que forman Internet. Aún considerando que el ISP podía soportar múltiples sistemas autónomos, Internet solo considera la política de definición de trayectorias establecida por el ISP. Por lo tanto, el ISP debería contar con un ASN registrado. Un número de AS o ASN se asigna a cada AS para ser utilizado por el esquema de encaminamiento BGP, este número identifica de manera única a cada red dentro del Internet.

Los sistemas son tan complejos que para su estudio surgieron disciplinas que ayudan a entender como funcionan, por ejemplo la informática, la cibernética, etc.
Informática
En el Diccionario De La Real Academia Española se define informática como:
Conjunto de conocimientos científicos y técnicas que hacen posible el tratamiento automático de la información por medio de ordenadores.
Conceptualmente, se puede entender como aquella disciplina encargada del estudio de métodos, procesos, técnicas, desarrollos y su utilización en ordenadores (computadoras), con el fin de almacenar, procesar y transmitir información y datos en formato digital.
La Informática es la ciencia aplicada que abarca el estudio y aplicación del tratamiento automático de la información, utilizando dispositivos electrónicos y sistemas computacionales. También está definida como el procesamiento automático de la información.
Conforme a ello, los sistemas informáticos deben realizar las siguientes tres tareas básicas:
Entrada: Captación de la información digital.
Proceso: Tratamiento de la información.
Salida: Transmisión de resultados binarios.
En los inicios del procesado de información, con la informática sólo se facilitaba los trabajos repetitivos y monótonos del área administrativa, gracias a la automatización de esos procesos, ello trajo como consecuencia directa una disminución de los costes y un incremento en la producción.
En la informática convergen los fundamentos de las ciencias de la comunicación, la programación y metodologías para el desarrollo de software, las redes de computadores, la inteligencia artificial y ciertas cuestiones relacionadas con la electrónica. Se puede entender por informática a la unión sinérgica de todo este conjunto de disciplinas.
Esta disciplina se aplica a numerosas y variadas áreas del conocimiento o la actividad humana, como por ejemplo: gestión de negocios, almacenamiento y consulta de información, monitorización y control de procesos, industrias, robótica, comunicaciones, control de transportes, investigación, desarrollo de juego, diseño computarizado, aplicaciones/herramientas multimedia, medicina, física, química, ingeniería, meteorología, arte, etc. Una de la aplicaciones más importantes de la informática es proveer información en forma oportuna y veraz, lo cual, por ejemplo, puede tanto facilitar la toma de decisiones a nivel gerencial (en una empresa) como permitir el control de procesos críticos.
Actualmente es difícil concebir un área que no use, de alguna forma, el apoyo de la informática. Ésta puede cubrir un enorme abanico de funciones, que van desde las más simples cuestiones domésticas, hasta los cálculos científicos más complejos.
Entre las funciones principales de la informática se cuentan las siguientes:
• Creación de nuevas especificaciones de trabajo.
• Desarrollo e implementación de sistemas informáticos.
• Sistematización de procesos.
• Optimización de los métodos y sistemas informáticos existentes.

Cibernética
La cibernética ha desempeñado un papel decisivo en el surgimiento de la actual revolución tecnológica. Alan Turing, alumno de John von neumann (otro de los pioneros de la cibernética), ambos precursores de la computadora y Claude Shannon con su Teoría de la Información.
¿Qué es la cibernética?
Definiciones: Cibernética es una de las ramas de las matemáticas que se encarga de los problemas de control, recursividad e información.
La cibernética es el estudio del control y comunicación en los Sistemas Complejos: Organismos vivos, máquinas y organizaciones. Especial atención se presta a la retroalimentación y sus conceptos derivados.
La palabra cibernética en griego se refiere a mecanismos precisos de gobierno y control, con Platón y Ampere es usada siempre en su sentido político - social, pero es utilizada por primera vez en referencia a la ingeniería humana por Norbert Wiener.
La cibernética es una disciplina íntimamente vinculada con la teoría general de sistemas, al grado en que muchos la consideran inseparable de esta, y se ocupa del estudio de: el mando, el control, las regulaciones y el gobierno de los sistemas. El propósito de la cibernética es desarrollar un lenguaje y técnicas que nos permitan atacar los problemas de control y comunicación en general.
Lo que estabiliza y coordina el funcionamiento de los sistemas complejos como los seres vivos o las sociedades y les permite hacer frente a las variaciones del ambiente y presentar un comportamiento más o menos complejo es el control, que le permite al sistema seleccionar los ingresos (inputs) para obtener ciertos egresos (outputs) predefinidos. La regulación esta constituida por los mecanismos que permiten al sistema mantener su equilibrio dinámico y alcanzar o mantener un estado.

Un concepto muy importante o casi fundamental en cibernética es el de la retroalimentación. La retroalimentación parte del principio de que todos los elementos de una totalidad de un sistema deben comunicarse entre sí para poder desarrollar interrelaciones coherentes. Sin comunicación no hay orden y sin orden no hay totalidad, lo que rige tanto para los sistemas físicos como para los biológicos y los sociológicos.
La retroalimentación puede ser positiva, negativa o compensada. La retroalimentación es negativa cuando su función consiste en contener o regular el cambio, es positiva si amplifica o multiplica el cambio en una dirección determinada y se dice que es compensada cuando un regulador ejerce alternadamente retroalimentaciones positivas y negativas, según las necesidades del mantenimiento de la estabilidad del sistema regulado. (Ejemplo Refrigerador, Temperatura Humana).
[1] La telecomunicación es la acción de comunicar a distancia usando medios como el teléfono, fax, etc. La palabra telecomunicación proviene del griego tele y del latín communicare.


Este libro fue elaborado por salvador soto cerros en el segundo semestre de la licenciatura de matemáticas como trabajo de investigación de la asignatura Comunicación De Las Ideas impartida por el profesor Eduardo Cantoral…

No hay comentarios:

Publicar un comentario