miércoles, 3 de octubre de 2012

Sexta Generación a la Actualidad

Sexta Generación a la Actualidad Como supuestamente la sexta generación de computadoras está en marcha desde principios de los años noventas, debemos por lo menos, esbozar las características que deben tener las computadoras de esta generación. También se mencionan algunos de los avances tecnológicosde la última década del siglo XX y lo que se espera lograr en el siglo XXI. Las computadoras de esta generación cuentan con arquitecturas combinadas Paralelo / Vectorial, con cientos de microprocesadores vectoriales trabajando al mismo tiempo; se han creado computadoras capaces de realizar más de un millón de millones de operaciones aritméticas de punto flotante por segundo (teraflops); las redes de área mundial (Wide Area Network, WAN) seguirán creciendo desorbitadamente utilizando medios de comunicación a través de fibras ópticas y satélites, con anchos de banda impresionantes.

Sexta Generación a la Actualidad

Sexta Generación a la Actualidad Como supuestamente la sexta generación de computadoras está en marcha desde principios de los años noventas, debemos por lo menos, esbozar las características que deben tener las computadoras de esta generación. También se mencionan algunos de los avances tecnológicosde la última década del siglo XX y lo que se espera lograr en el siglo XXI. Las computadoras de esta generación cuentan con arquitecturas combinadas Paralelo / Vectorial, con cientos de microprocesadores vectoriales trabajando al mismo tiempo; se han creado computadoras capaces de realizar más de un millón de millones de operaciones aritméticas de punto flotante por segundo (teraflops); las redes de área mundial (Wide Area Network, WAN) seguirán creciendo desorbitadamente utilizando medios de comunicación a través de fibras ópticas y satélites, con anchos de banda impresionantes.

quinta generacion de compu

La quinta generación de computadoras, también conocida por sus siglas en inglés, FGCS (de Fifth Generation Computer Systems) fue un ambicioso proyecto propuesto por Japón a finales de la década de 1970. Su objetivo era el desarrollo de una nueva clase de computadoras que utilizarían técnicas y tecnologías de inteligencia artificial tanto en el plano del hardware como del software,[1] usando el lenguaje PROLOG[2] [3] [4] al nivel del lenguaje de máquina y serían capaces de resolver problemas complejos, como la traducción automática de una lengua natural a otra (del japonés al inglés, por ejemplo).

lunes, 1 de octubre de 2012

La denominada Cuarta Generación (1971 a la fecha) es el producto de la microminiaturización de los circuitos electrónicos. El tamaño reducido del microprocesador de chips hizo posible la creación de las computadoras personales (PC). Hoy en día las tecnologías LSI (Integración a gran escala) y VLSI (integración a muy gran escala) permiten que cientos de miles de componentes electrónicos se almacenen en un chip. Usando VLSI, un fabricante puede hacer que una computadora pequeña rivalice con una computadora de la primera generación que ocupaba un cuarto completo. Hicieron su gran debut las microcomputadoras.
Las computadoras nuevamente se hicieron más pequeñas, más rápidas, desprendían menos calor y eran energéticamente más eficientes. Las velocidades de cálculo se disparan al nanosegundo (10-9 segundos), las memorias externas al megabyte (210 posiciones de memoria) y se generalizan variados periféricos: impresoras, lectores de tarjetas, lectores ópticos, discos flexibles de almacenamiento. Nacen los lenguajes de alto nivel, de sintaxis fácilmente comprensible por el programador. Las características de esta generación fueron las siguientes: Ø Su fabricación electrónica esta basada en circuitos integrados. Ø Su manejo es por medio de los lenguajes de control de los sistemas operativos. LOS CIRCUITOS INTEGRADOS Las computadoras de la tercera generación emergieron con el desarrollo de los circuitos integrados (pastillas de silicio) en las cuales se colocan miles de componentes electrónicos, en una integración en miniatura. El circuito integrado no es más que la mínima expresión del transistor. Se basa en las propiedades de los semiconductores, que funcionan como transistores, pero que tienen un tamaño pequeñísimo (15 o 20 transistores en unos pocos milímetros cuadrados).

sábado, 29 de septiembre de 2012

SEGUNDA GENERACIÓN (1955-1965) El invento del transistor hizo posible una nueva generación de computadoras, más rápidas, más pequeñas, y con menores necesidades de ventilación. Sin embargo, el costo seguía siendo una porción significativa del presupuesto de una Compañía. Las computadoras de la segunda generación también utilizaban redes de núcleos magnéticos en lugar de tambores giratorios para el almacenamiento primario. Estos núcleos contenían pequeños anillos de material magnético, enlazados entre sí, en los cuales podían almacenarse datos e instrucciones. Las computadoras de la Segunda Generación eran sustancialmente más pequeñas y rápidas que las de bulbos, y se usaban para nuevas aplicaciones, como en los sistemas para reservación en líneas aéreas, control de tráfico aéreo y simulaciones de uso general. Las empresas comenzaron a aplicar las computadoras en las tareas de almacenamiento de registros, como manejo de inventarios, nómina y contabilidad. Las características de la segunda generación son las siguientes:
Comienza la era del ordenador A principios de la década de los cuarenta, los ordenadores se fabricaban principalmente para ser utilizados en proyectos militares. Con el fin de colaborar en el esfuerzo de guerra, el gobierno federal de los Estados Unidos financió proyectos de desarrollo de ordenadores. En 1946 la UNIVAC empezó a fabricar ordenadores para uso comercial. Eckert y Mauchly diseñaban sus ordenadores para que procesaran datos comerciales en la empresa privada. Cuando en 1951 introdujeron su UNIVAC en el campo empresarial, iniciaron el despegue de la industria de informática, luego le siguió el IBM con el IBM 701 en 1953 y que más tarde en 1954 lanzaría el IBM 650.

miércoles, 26 de septiembre de 2012

teoria del caos

Teoría del caos es la denominación popular de la rama de las matemáticas, la física y otras ciencias que trata ciertos tipos de sistemas dinámicos muy sensibles a las variaciones en las condiciones iniciales. Pequeñas variaciones en dichas condiciones iniciales pueden implicar grandes diferencias en el comportamiento futuro; complicando la predicción a largo plazo. Esto sucede aunque estos sistemas son en rigor determinísticos, es decir; su comportamiento puede ser completamente determinado conociendo sus condiciones iniciales.

miércoles, 19 de septiembre de 2012

COMPROMISOS PARA EL AÑO LECTIVO 2012̣̣ _ 2013 1.-EVITAR LA DESONESTIDAD 2.-REALIZAR MIS PROPIAS TAREAS 3.-SER SOLIDARIO CON MIS COMPAÑEROS 4.-RESPETAR LAS REGLASDE LA INSTITUCION 5.-RESPETAR A LAS AUTORIDADES DEL PLANTEL 6.-RESPETAR A LOS PROFESORES Y SALUDARLES 7.-NO HACER DEBERES EN CLASE 8.-NO FALTARLE EL RESPETO A NADIEEN CLASE 9.-LLEGAR PUNTUAL A CLASE 10.NO FALTAR A CLASE

domingo, 16 de septiembre de 2012

Software Libre Artículo principal: Definición de Software Libre. De acuerdo con tal definición, un software es "libre" cuando garantiza las siguientes libertades:2 Libertad Descripción 1 la libertad de usar el programa, con cualquier propósito. 2 la libertad de estudiar cómo funciona el programa y modificarlo, adaptándolo a tus necesidades. 3 la libertad de distribuir copias del programa, con lo cual puedes ayudar a tu prójimo. 4 la libertad de mejorar el programa y hacer públicas esas mejoras a los demás, de modo que toda la comunidad se beneficie. Las libertades 1 y 3 requieren acceso al código fuente porque estudiar y modificar software sin su código fuente es muy poco viable. Ciertos teóricos usan este cuarto punto (libertad 3) para justificar parcialmente las limitaciones impuestas por la licencia GNU GPL frente a otras licencias de software libre (ver Licencias GPL). Sin embargo el sentido original es más libre, abierto y menos restrictivo que el que le otorga la propia situación de incompatibilidad, que podría ser resuelta en la próxima versión 3.0 de la licencia GNU GPL, causa en estos momentos graves perjuicios a la comunidad de programadores de software libre, que muchas veces no pueden reutilizar o mezclar códigos de dos licencias distintas, pese a que las libertades teóricamente lo deberían permitir. Tanto la Open Source Initiative como la Free Software Foundation mantienen en sus webs oficiales listados de las licencias de software libre que aprueban.