martes, 30 de agosto de 2011

Principales logros y contribución científica relacionados con Sistemas e Información

Norbert Wiener: Considerado como el padre de la cibernética. En 1948 publicó un libro titulado “Cibernética, o Control y comunicación entre el hombre y la máquina". Propuso el nombre "cibernética" derivado de una palabra griega que puede traducirse como piloto, timonel o regulador. Por tanto la palabra cibernética podría significar ciencia de los mandos. Fue Wiener quien vio que la información era cuantitativamente tan importante como la energía o la materia. Su contribución a la ciencia de la informática consistió en la creación de un medio intelectual en el cual se pudieron desarrollar los ordenadores y los autómatas. La teoría de la cibernética de Wiener se puede considerar como una superciencia y ha fomentado la investigación en muchas áreas de sistemas de control y de sistemas que tratan con la información. Todo es información. Todo cuanto sabemos acerca de los cambios del mundo nos llega a través de nuestros ojos, oídos y otros receptores sensoriales, que son dispositivos para seleccionar sólo ciertos datos de un total que, de lo contrario, nos desbordaría.

Josiah Willard Gibbs: Dedujo la regla de las fases, que permite determinar los grados de libertad de un sistema físico-químico en función del número de componentes del sistema y del número de fases en que se presenta la materia involucrada. También definió una nueva función de estado del sistema termodinámico, la denominada energía libre o energía de Gibbs (G), que permite prever la espontaneidad de un determinado proceso fisicoquímico (como puedan ser una reacción química o bien un cambio de estado) experimentado por un sistema sin necesidad de interferir en el medio ambiente que le rodea.

James Clerk Maxwell: Fue una de las mentes matemáticas más preclaras de su tiempo, y muchos físicos lo consideran el científico del siglo XIX que más influencia tuvo sobre la física del siglo XX habiendo hecho contribuciones fundamentales en la comprensión de la naturaleza. Publicó un artículo teórico sobre los gobernadores, uno de los primeros para discutir y perfeccionar los principios de la auto-regulación de los dispositivos.

Albert Einsten: dedujo la ecuación de la física más conocida a nivel popular: la equivalencia masa-energía, E=mc². Publicó diversos trabajos que sentarían bases para la física estadística y la mecánica cuántica. Su artículo, titulado "Sobre el movimiento requerido por la teoría cinética molecular del calor de pequeñas partículas suspendidas en un líquido estacionario", explicaba el fenómeno haciendo uso de las estadísticas del movimiento térmico de los átomos individuales que forman un fluido. El artículo también aportaba un fuerte impulso a la mecánica estadística y a la teoría cinética de los fluidos, dos campos que en aquella época permanecían controvertidos.

♦ San Agustín: Inspirado por el tratado filosófico Hortensius, del orador y estadista romano Cicerón, Agustín se convirtió en un ardiente buscador de la verdad, estudiando varias corrientes filosóficas antes de ingresar en el seno de la Iglesia. Pensaba que las proposiciones derivadas de la experiencia tienen, a lo sumo, un grado de probabilidad.

♦ Sócrates: La cuestión moral del conocimiento del bien estuvo en el centro de las enseñanzas de Sócrates, con lo que imprimió un giro fundamental en la historia de la filosofía griega, al prescindir de las preocupaciones cosmológicas de sus predecesores. El primer paso para alcanzar el conocimiento, y por ende la virtud, consistía en la aceptación de la propia ignorancia. Su más grande mérito fue crear la mayéutica, método inductivo que le permitía llevar a sus alumnos a la resolución de los problemas que se planteaban por medio de hábiles preguntas cuya lógica iluminaba el entendimiento. Según pensaba, el conocimiento y el autodominio habrían de permitir restaurar la relación entre el ser humano y la naturaleza.

♦ Platón: Determinó gran parte del corpus de creencias centrales tanto del pensamiento occidental como del hombre corriente ("sentido común"). Su teoría más conocida es la de las Ideas o Formas. En ella sostiene que todos los entes del mundo sensible son imperfectos y deficientes, y participan de otros entes, perfectos y autónomos (Ideas) de carácter ontológico muy superior y de los cuales son pálida copia, que no son perceptibles mediante los sentidos. Cada Idea es única e inmutable, mientras que, las cosas del mundo sensible son múltiples y cambiantes. La contraposición entre la realidad y el conocimiento es descrita por Platón en el célebre mito de la caverna, en La República. Para Platón, la única forma de acceder a la realidad inteligible era mediante la razón y el entendimiento; el papel de los sentidos queda relegado y se considera engañoso.

¿Cómo relaciona Wiener la introducción del concepto de probabilidad con la concepción de San Agustín del Mal?

Según San Agustín, el mal era la ausencia de la luz (el bien), la ausencia de perfección.  Entonces, relacionándolo con lo que afirma Wiener sobre que todo suceso tiene una probabilidad de llegar a ser, toda persona tiene una probabilidad de ser "mala" e incluso de ser "buena" o "perfecta" (lo cual es tiene una mayor entropía) según las condiciones de su entorno.

¿Cómo interpretaría Wiener la información de Einstein que dice ¨Dios no juega a los dados¨?

Es conocida la frase de Albert Einstein “Dios no juega a los dados”, que mucha gente cita para sustentar una relación edénica entre la religión y la ciencia.

Esa frase podría significar que nada fue creado porque sí, si no que todo, absolutamente todo, tiene una causa, un por qué para ser como es.

Relacionándolo con lo que afirma Wiener, se podría decir que por lo mismo que las cosas tienen una razón de ser, tienen una determinada probabilidad de suceder o no según las condiciones del entorno antes de que sucedam.

¿Cuál es la metáfora usada por Wiener entre información y energía?

Norbert Wiener nació en 1894 en Missouri -Estados Unidos. Se graduó en Matemáticas a los 14 años y obtuvo el doctorado en Lógica a los 18 años.

El usó la metáfora: "Información es información, no materia o energía"



¿Cómo se define el concepto de entropía y qué relación guarda con el de información?

La entropía es la "medida del desorden" o la "peculiaridad de ciertas combinaciones". Puede ser considerada como una medida de la incertidumbre y de la información necesaria para poder reducir o eliminar esta incertidumbre.

El concepto básico de entropía en la Teoría de la Información tiene mucho que ver con la incertidumbre que existe en cualquier experimento o señal aleatoria. Es también la cantidad de "ruido" o "desorden" que contiene o libera un sistema. Por lo tanto, también está relacionada con la cantidad de información que lleva una señal.

Claude Shannon, en "A Mathematical Theory of Information" determinó que la cantidad de información (medida en bits) necesaria para codificar un dato era de log(1/p) donde p es la probabilidad de que aparezca ese dato y log es el logaritmo en base 2.


¿Qué relación hay entre Información, Organización y Probabilidad?

La información es un conjunto organizado de datos procesados, que constituyen un mensaje que cambia el estado de conocimiento del sujeto o sistema que recibe dicho mensaje.

La organización es un sistema de actividades cuyo objetivo es coordinar los recursos disponibles.

La organización de la información constituye actualmente un factor de éxito en las empresas. La introducción del ordenador en el mundo empresarial revolucionó por completo el sector. Se desarrollaron más tarde bases de datos y aplicaciones dedicadas a optimizar la gestión de información.

La probabilidad mide la frecuencia con la que se obtiene un resultado al llevar a cabo un experimento aleatorio, del que se conocen todos los resultados posibles. La probabilidad es útil para comprobar la fiabilidad de las inferencias estadísticas y para predecir el tipo y la cantidad de datos necesarios en un determinado estudio estadístico.

La estadística es una ciencia que estudia la recolección, análisis e interpretación de datos y mediante la Teoría de la Probabilidad, organiza los datos recolectados.