lunes, 5 de septiembre de 2011

Normalización desde la 1FN a la 4FN




Cuarta Forma Normal

La forma Normal de Boyce/Codd (FNBC) consiste en que todas las determinantes sean claves candidatas.

La dependencia multivalor de da cuando un atributo de una entidad puede tomar varios valores independientes a los otros atributos.

La cuarta Forma Normal (4FN), entonces, se da cuando los datos están en FNBC y además, no tienen dependencia multivalor.



Las fallas de la 4FN radican en la redundancia  de datos relacionales que guardan hechos multi-valores aislando semánticamente relaciones múltiples relacionadas.

Tercera Forma Normal

Primero, los datos ya deben estar en 2FN.

La tercera Forma Normal (3FN) se encarga de que ninguno de los atributos no-clave en la relación esté en DF con algún otro atributo no-clave.





Las fallas de la 3FN se dan por la posible existencia de un mismo atributo con muchos valores.


Segunda Forma Normal

Primero, los datos ya deben estar en 1FN.

La segunda Forma Normal (2FN) se encarga de que cada atributo no clave de la relación esté en DFC con la clave primaria. Para ello se deben hacer tablas separadas.









Las fallas de la 2FN se dan por la dependencia transitiva de atributos no-clave con la clave primaria.

Diferencia entre Datos Normalizados en 1FN y Datos no Normalizados

UNIVERSO DE DATOS NO NORMALIZADOS

Los datos no normalizados son los que no cumplen con ciertas reglas establecidas para un correcto manejo de la Base de Datos, ya que pueden existir distintas anomalías, como las de inserción, actualización y borrado.


Anomalía de Inserción: Si se quisiera agregar un nuevo departamento que aún no tiene trabajadores, los campos C_Trabajador, N_Trabajador y Q_Anios estarían vacíos.


Anomalía de Actualización: Si se quisiera cambiar el código de un departamento por otro, había que cambiarlo por cada uno de los trabajadores que pertenecen a este, lo cual ocasiona un desperdicio de tiempo y recursos.

Anomalía de Borrado: Si se despide a todos los trabajadores de un departamento, se borrarían todos los registros y no quedaría ninguna prueba de la existencia de ese departamento.


DATOS NORMALIZADOS EN 1FN

Antes que nada, los datos deben ser atómicos (que no se puedan dividir).
Un ejemplo de datos no atómicos:

La primera Forma Normalizada (1FN) consiste en evitar grupos repetitivos. Para esto se deben separar los datos en distintas tablas, de manera que a cada una se le pueda asignar una clave única (que no se repita). Además, se debe cumplir la atomicidad (que los datos no se puedan dividir).


se puede separar en


donde C_Departamento y C_Trabajador son las claves de sus respectivas tablas.

Entonces si se juntan en una misma tabla, quedaría así:


donde la clave  sería la combinación de C_Departamento y C_Trabajador.

EJEMPLOS:




 


 

martes, 30 de agosto de 2011

Principales logros y contribución científica relacionados con Sistemas e Información

Norbert Wiener: Considerado como el padre de la cibernética. En 1948 publicó un libro titulado “Cibernética, o Control y comunicación entre el hombre y la máquina". Propuso el nombre "cibernética" derivado de una palabra griega que puede traducirse como piloto, timonel o regulador. Por tanto la palabra cibernética podría significar ciencia de los mandos. Fue Wiener quien vio que la información era cuantitativamente tan importante como la energía o la materia. Su contribución a la ciencia de la informática consistió en la creación de un medio intelectual en el cual se pudieron desarrollar los ordenadores y los autómatas. La teoría de la cibernética de Wiener se puede considerar como una superciencia y ha fomentado la investigación en muchas áreas de sistemas de control y de sistemas que tratan con la información. Todo es información. Todo cuanto sabemos acerca de los cambios del mundo nos llega a través de nuestros ojos, oídos y otros receptores sensoriales, que son dispositivos para seleccionar sólo ciertos datos de un total que, de lo contrario, nos desbordaría.

Josiah Willard Gibbs: Dedujo la regla de las fases, que permite determinar los grados de libertad de un sistema físico-químico en función del número de componentes del sistema y del número de fases en que se presenta la materia involucrada. También definió una nueva función de estado del sistema termodinámico, la denominada energía libre o energía de Gibbs (G), que permite prever la espontaneidad de un determinado proceso fisicoquímico (como puedan ser una reacción química o bien un cambio de estado) experimentado por un sistema sin necesidad de interferir en el medio ambiente que le rodea.

James Clerk Maxwell: Fue una de las mentes matemáticas más preclaras de su tiempo, y muchos físicos lo consideran el científico del siglo XIX que más influencia tuvo sobre la física del siglo XX habiendo hecho contribuciones fundamentales en la comprensión de la naturaleza. Publicó un artículo teórico sobre los gobernadores, uno de los primeros para discutir y perfeccionar los principios de la auto-regulación de los dispositivos.

Albert Einsten: dedujo la ecuación de la física más conocida a nivel popular: la equivalencia masa-energía, E=mc². Publicó diversos trabajos que sentarían bases para la física estadística y la mecánica cuántica. Su artículo, titulado "Sobre el movimiento requerido por la teoría cinética molecular del calor de pequeñas partículas suspendidas en un líquido estacionario", explicaba el fenómeno haciendo uso de las estadísticas del movimiento térmico de los átomos individuales que forman un fluido. El artículo también aportaba un fuerte impulso a la mecánica estadística y a la teoría cinética de los fluidos, dos campos que en aquella época permanecían controvertidos.

♦ San Agustín: Inspirado por el tratado filosófico Hortensius, del orador y estadista romano Cicerón, Agustín se convirtió en un ardiente buscador de la verdad, estudiando varias corrientes filosóficas antes de ingresar en el seno de la Iglesia. Pensaba que las proposiciones derivadas de la experiencia tienen, a lo sumo, un grado de probabilidad.

♦ Sócrates: La cuestión moral del conocimiento del bien estuvo en el centro de las enseñanzas de Sócrates, con lo que imprimió un giro fundamental en la historia de la filosofía griega, al prescindir de las preocupaciones cosmológicas de sus predecesores. El primer paso para alcanzar el conocimiento, y por ende la virtud, consistía en la aceptación de la propia ignorancia. Su más grande mérito fue crear la mayéutica, método inductivo que le permitía llevar a sus alumnos a la resolución de los problemas que se planteaban por medio de hábiles preguntas cuya lógica iluminaba el entendimiento. Según pensaba, el conocimiento y el autodominio habrían de permitir restaurar la relación entre el ser humano y la naturaleza.

♦ Platón: Determinó gran parte del corpus de creencias centrales tanto del pensamiento occidental como del hombre corriente ("sentido común"). Su teoría más conocida es la de las Ideas o Formas. En ella sostiene que todos los entes del mundo sensible son imperfectos y deficientes, y participan de otros entes, perfectos y autónomos (Ideas) de carácter ontológico muy superior y de los cuales son pálida copia, que no son perceptibles mediante los sentidos. Cada Idea es única e inmutable, mientras que, las cosas del mundo sensible son múltiples y cambiantes. La contraposición entre la realidad y el conocimiento es descrita por Platón en el célebre mito de la caverna, en La República. Para Platón, la única forma de acceder a la realidad inteligible era mediante la razón y el entendimiento; el papel de los sentidos queda relegado y se considera engañoso.

¿Cómo relaciona Wiener la introducción del concepto de probabilidad con la concepción de San Agustín del Mal?

Según San Agustín, el mal era la ausencia de la luz (el bien), la ausencia de perfección.  Entonces, relacionándolo con lo que afirma Wiener sobre que todo suceso tiene una probabilidad de llegar a ser, toda persona tiene una probabilidad de ser "mala" e incluso de ser "buena" o "perfecta" (lo cual es tiene una mayor entropía) según las condiciones de su entorno.

¿Cómo interpretaría Wiener la información de Einstein que dice ¨Dios no juega a los dados¨?

Es conocida la frase de Albert Einstein “Dios no juega a los dados”, que mucha gente cita para sustentar una relación edénica entre la religión y la ciencia.

Esa frase podría significar que nada fue creado porque sí, si no que todo, absolutamente todo, tiene una causa, un por qué para ser como es.

Relacionándolo con lo que afirma Wiener, se podría decir que por lo mismo que las cosas tienen una razón de ser, tienen una determinada probabilidad de suceder o no según las condiciones del entorno antes de que sucedam.

¿Cuál es la metáfora usada por Wiener entre información y energía?

Norbert Wiener nació en 1894 en Missouri -Estados Unidos. Se graduó en Matemáticas a los 14 años y obtuvo el doctorado en Lógica a los 18 años.

El usó la metáfora: "Información es información, no materia o energía"



¿Cómo se define el concepto de entropía y qué relación guarda con el de información?

La entropía es la "medida del desorden" o la "peculiaridad de ciertas combinaciones". Puede ser considerada como una medida de la incertidumbre y de la información necesaria para poder reducir o eliminar esta incertidumbre.

El concepto básico de entropía en la Teoría de la Información tiene mucho que ver con la incertidumbre que existe en cualquier experimento o señal aleatoria. Es también la cantidad de "ruido" o "desorden" que contiene o libera un sistema. Por lo tanto, también está relacionada con la cantidad de información que lleva una señal.

Claude Shannon, en "A Mathematical Theory of Information" determinó que la cantidad de información (medida en bits) necesaria para codificar un dato era de log(1/p) donde p es la probabilidad de que aparezca ese dato y log es el logaritmo en base 2.


¿Qué relación hay entre Información, Organización y Probabilidad?

La información es un conjunto organizado de datos procesados, que constituyen un mensaje que cambia el estado de conocimiento del sujeto o sistema que recibe dicho mensaje.

La organización es un sistema de actividades cuyo objetivo es coordinar los recursos disponibles.

La organización de la información constituye actualmente un factor de éxito en las empresas. La introducción del ordenador en el mundo empresarial revolucionó por completo el sector. Se desarrollaron más tarde bases de datos y aplicaciones dedicadas a optimizar la gestión de información.

La probabilidad mide la frecuencia con la que se obtiene un resultado al llevar a cabo un experimento aleatorio, del que se conocen todos los resultados posibles. La probabilidad es útil para comprobar la fiabilidad de las inferencias estadísticas y para predecir el tipo y la cantidad de datos necesarios en un determinado estudio estadístico.

La estadística es una ciencia que estudia la recolección, análisis e interpretación de datos y mediante la Teoría de la Probabilidad, organiza los datos recolectados.