sábado, 4 de abril de 2009

Distribuciones de Unix




DISTRIBUCIONES DE UNIX



UNIX es un sistema operativo multitarea y multiusuario, lo cual significa que puede ejecutar varios programas simultáneamente, y que puede gestionar a varios usuarios simultáneamente. Se desarrolló en los laboratorios Bell (por Kernighan & Thompson), y aunque al principio se diseñó para el PDP-11, una máquina de Digital, ahora se ejecuta en gran cantidad de plataformas con muchos tipos de microprocesadores diferentes, haciéndolo un sistema multiplataforma, y provocando por tanto que un programa en código máquina ejecutable en una plataforma en UNIX no tenga por qué ser ejecutable en otra. Sin embargo, todos los UNIX son compatibles a dos niveles.
Comandos del sistema operativo, y grupos de ellos, es decir, scripts. Programas en C en código fuente, siempre que se utilicen las librerías estándar. Una librería es un conjunto de funciones que el usuario puede utilizar, que vienen aparte del compilador.
Esta multiplicidad de plataformas hace que UNIX venga en diferentes sabores, casi uno por cada fabricante y para cada tipo de máquina. Además, hay dos grupos (bueno, quizás 3) de desarrollo diferentes:


*System V: liderado por AT&T, y acompañado por Sun y otra serie de fabricantes, va por la versión 4.
* BSD, el más utilizado en las universidades.
Aparte, hay una serie de intentos de llegar a un UNIX totalmente estándar, pero al haber varios, estos intentos son en vano. En concreto, son los siguientes:
*UNIX International, de AT&T y Sun. Open Software Foundation, que ha hecho ya un sistema operativo, OSF/1, y un IGU (interfaz gráfica de usuario), OSF Motif, liderado por IBM y su peña.

SISTEMAS UNIX DISTRIBUIDOS.



Los sistemas UNIX han desarrollado una posición especial de predominancia en los sistemaas distribuidos, especialmente por que ellos necesitan interconectar equipos de muchos fabricantes que utilizan diferentes arquitectura. Teniendo un sistema operativo común, así como también son comunes los tipos de protocolos de comunicación, facilita la tarea de los sistemas distribuidos desarrollados.
A continuación se discutirán las cuatros mayores contribuciones que han hecho que UNIX incremente su viabilidad como una base para los sistemas distribuidos.

BERKELEY`S SOCKETS.



El sistema Berkeley`s 4.2 BSD introduce Socket para establecer las comunicaciones entre procesos en un sistema distribuido. Los Sockets también establecen comunicaciones entre procesos no relacionados en la misma máquina.
En UNIX 4.3 BSD, el Socket es la unidad fundamental para comunicaciones. Los Sockets son puntos finales de comunicación. Pueden ser vinculados con nombres. Cada socket está asociado con uno o más procesos. UNIX 4.3 BSD soporta tres dominios de comunicación, y los sockets normalmente se comunican con otros sockets en el mismo dominio. Los tipos de dominio de comunicación son:
El dominio de sistema UNIX (para comunicaciones “on- system”).
El dominio Internet (para comunicación usando protocolos estándar DARPA).
DARPA es la agencia de Proyectos de Investigación Avanzados de Defensa del Departamento de Defensa de los EE.UU.
El dominio NS para comunicaciones que usan los protocolos de comunicación estándar XEROX.

AT&T`s STREAMS.

El mecanismo AT&T`s Streams provee un número de características para transmisiones de alta velocidad. Streams facilita la implementación de protocolos de red en capas tales como OSI, SNA, TCP/IP y XNS.

Un Streams es un camino bidireccional entre un proceso en el espacio de usuario y un manejador de dispositivo en el espacio kernel. Los módulos de procesos pueden ser configurados dinámicamente en un stream de manera tal que los programas pueden agregar servicios a los naturalmente previstos por los dispositivos.

Con manejadores de dispositivos, las llamadas al sistema son conmutadas a los manejadores; con streams, las llamadas al sistema crean mensajes para comunicarse con los manejadores. Un stream asocia un par de colas (una para lectura y otra para escritura) con el usuario y otro par con el dispositivo. Las colas son enlazadas para formar un stream entre el manejador de dispositivo y el usuario. Para cada cola hay cuatros rutinas:

Open es llamada cuando el dispositivo es abierto.

Close es llamada cuando el dispositivo está cerrado.

Put coloca datos en la cola.

Service sirve la cola y los datos de salida en un dispositivo o en la siguiente cola.

NETWORK FILE SYSTEM (NFS).

NFS le da a los sistemas de archivos remotos la apariencia de estar montados localmente, haciendo la operación de la red transparente a la ubicación de los archivos.

La computadora de una red es referida como nodos, cada uno con un nombre único. Un nodo puede ser un servidor, un cliente, o ambos.

Un servidor provee servicios a los procesos o usuarios de uno o más clientes. Un nodo distribuye las llamadas al sistema y/o los comandos para conveniencia de un servido o un cliente.

NFS y otros servicios de red de Sun se basan en los estándares Llamado a procedimiento remoto (RPC) y Representación de Datos Externos (XDR) desarrollados Sun Microsystem. RPC permite que los programas que se ejecutan en diferentes sistemas operativos se llamen entre sí y reciban valores de retorno. El RPC del cliente traduce cada llamada a un formulario estándar y lo transmite al servidor. El RPC del servidor acepta el llamado, lo traduce al formato del servidor, e inicia el procedimiento llamado, transfiriendo los parámetros apropiados. XDR es un formato estándar de representar datos transferidos entre diferentes máquinas.

AT&T REMOT FILE SYSTEM (RFS).



El sistema de archivos remotos fue desarrollado por AT&T para facilitar la computación distribuida con el UNIX System V. Es un protocolo independiente; a medida que protocolos de red nuevos comienzan a emerger (tal como OSI), pueden ser fácilmente instalados en sistemas basados en RFS.
Los requerimientos son realizados por el cliente, pasando un mensaje al servidor, este último realiza el requerimiento y devuelve un mensaje en respuesta. RFS usa un modelo de montado remoto; los nodos individuales comparten en la red sólo aquellos archivos y directorios que desean; otros archivos permanecen como privados.
Los diseñadores de RFS optaron por usar servidores de estado completo antes que los accesos a servidores de estado parcial usados en NFS. Una debilidad de los accesos de estados parcial es que limitan las semánticas de las operaciones remotas. AT&T optó por usar acceso a servidores de estado completos debido a que desea que NFS soporte todas las semánticas del sistema UNIX, inclusive las capacidades de estado completo tales como bloqueo de registros y archivos, y varias operaciones de dispositivos periféricos.

miércoles, 1 de abril de 2009

Distruciones de linux

Distribuciones mas importantes de Linux (aunque no las unicas).

REDHAT ENTERPRISE

Esta es una distribucion que tiene muy buena calidad, contenidos y soporte a los usuarios por parte de la empresa que la distribuye. Es necesario el pago de una licencia de soporte. Enfocada a empresas.

FEDORA

Esta es una distribucion patrocinada por RedHat y soportada por la comunidad. Facil de instalar y buena calidad.

DEBIAN

Otra distribucion con muy buena calidad. El proceso de instalacion es quizas un poco mas complicado, pero sin mayores problemas. Gran estabilidad antes que ultimos avances.

OpenSuSE

Otra de las grandes. Facil de instalar. Version libre de la distribucion comercial SuSE.

SuSE LINUX ENTERPRISE

Otra de las grandes. Muy buena calidad, contenidos y soporte a los usuarios por parte de la empresa que la distribuye, Novell. Es necesario el pago de una licencia de soporte. Enfocada a empresas.

SLACKWARE

Esta distribucion es de las primeras que existio. Tuvo un periodo en el cual no se actualizo muy a menudo, pero eso es historia. Es raro encontrar usuarios de los que empezaron en el mundo linux hace tiempo, que no hayan tenido esta distribucion instalada en su ordenador en algun momento.


Esta distribucion es una de las unicas que han incorporado un concepto totalmente nuevo en Linux. Es una sistema inspirado en BSD-ports. Podeis compilar/optimizar vuestro sistema completamente desde cero. No es recomendable adentrarse en esta distribucion sin una buena conexion a internet, un ordenador medianamente potente (si quereis terminar de compilar en un tiempo prudencial) y cierta experiencia en sistemas Unix.

UBUNTU

Distribucion basada en Debian, con lo que esto conlleva y centrada en el usuario final y facilidad de uso. Muy popular y con mucho soporte en la comunidad. El entorno de escritorio por defecto es GNOME.

KUBUNTU
Distribucion basada en Ubuntu, con lo que esto conlleva y centrada en el usuario final y facilidad de uso. La gran diferencia con Ubuntu es que el entorno de escritorio por defecto es KDE.

MANDRIVA
Esta distribucion fue creada en 1998 con el objetivo de acercar el uso de Linux a todos los usuarios, en un principio se llamo Mandrake Linux. Facilidad de uso para todos los usuarios.

TIPOS DE ALMACENAMIENTO

Almacenamiento primario

La memoria primaria está directamente conectada a la CPU de la computadora. Debe estar presente para que la CPU funcione correctamente. El almacenamiento primario consiste en tres tipos de almacenamiento:
Los
registros del procesador son internos de la CPU. Contienen información que las unidades aritmético-lógicas necesitan llevar a la instrucción en ejecución. Técnicamente, son los más rápidos de los almacenamientos de la computadora, siendo transistores de conmutación integrados en el chip de silicio del microprocesador (CPU) que funcionan como "flip-flop" electrónicos.
La
memoria caché es un tipo especial de memoria interna usada en muchas CPU para mejorar su eficiencia o rendimiento. Parte de la información de la memoria principal se duplica en la memoria caché. Comparada con los registros, la caché es ligeramente más lenta pero de mayor capacidad. Sin embargo, es más rápida, aunque de mucha menor capacidad que la memoria principal. También es de uso común la memoria caché multi-nivel - la "caché primaria" que es más pequeña, rápida y cercana al dispositivo de procesamiento; la "caché secundaria" que es más grande y lenta, pero más rápida y mucho más pequeña que la memoria principal.
La
memoria principal contiene los programas en ejecución y los datos con que operan. La Unidad Aritmético-Lógica puede transferir información muy rápidamente entre un registro del microprocesador y localizaciones del almacenamiento principal, también conocidas como "direcciones de memoria". En las computadoras modernas se usan memorias de acceso aleatorio basadas en electrónica del estado sólido, que está directamente conectada a la CPU a través de un "bus de memoria" y de un "bus de datos". Al bus de memoria también se le llama bus de dirección o bus frontal (Front Side Bus) y ambos buses son "superautopistas" digitales de alta velocidad. Los 'métodos de acceso' y la 'velocidad' son dos de las diferencias técnicas fundamentales entre memoria y dispositivos de almacenamiento masivo.

Almacenamiento secundario, terciario y fuera de línea

La memoria secundaria requiere que la computadora use sus canales de entrada/salida para acceder a la información y se utiliza para almacenamiento a largo plazo de información persistente. Sin embargo, la mayoría de los sistemas operativos usan los dispositivos de almacenamiento secundario como área de intercambio para incrementar artificialmente la cantidad aparente de memoria principal en la computadora. La memoria secundaria también se llama "de almacenamiento masivo".
Habitualmente, la memoria secundaria o de almacenamiento masivo tiene mayor capacidad que la memoria primaria, pero es mucho más lenta. En las computadoras modernas, los
discos duros suelen usarse como dispositivos de almacenamiento masivo. El tiempo necesario para acceder a un byte de información dado almacenado en un disco duro es de unas milésimas de segundo (milisegundos). En cambio, el tiempo para acceder al mismo tipo de información en una memoria de acceso aleatorio (RAM) se mide en mil-millonésimas de segundo (nanosegundos).
Esto ilustra cuan significativa es la diferencia entre la velocidad de las memorias de estado sólido y la velocidad de los dispositivos rotantes de almacenamiento magnético u óptico: los discos duros son del orden de un millón de veces más lentos que la memoria (primaria). Los dispositivos rotantes de almacenamiento óptico (unidades de CD y DVD) son incluso más lentos que los discos duros, aunque es probable que su velocidad de acceso mejore con los avances tecnológicos.
Por lo tanto, el uso de la memoria virtual, que es cerca de un millón de veces más lenta que memoria “verdadera”, ralentiza apreciablemente el funcionamiento de cualquier computadora. Muchos sistemas operativos implementan la memoria virtual usando términos como
memoria virtual o "fichero de caché". La principal ventaja histórica de la memoria virtual es el precio; la memoria virtual resultaba mucho más barata que la memoria real. Esa ventaja es menos relevante hoy en día. Aun así, muchos sistemas operativos siguen implementándola, a pesar de provocar un funcionamiento significativamente más lento.
La
memoria terciaria es un sistema en el que un brazo robótico montará (conectará) o desmontará (desconectará) un medio de almacenamiento masivo fuera de línea (ver siguiente punto) según lo solicite el sistema operativo de la computadora. La memoria terciaria se usa en el área del almacenamiento industrial, la computación científica en grandes sistemas informáticos y en redes empresariales. Este tipo de memoria es algo que los usuarios de computadoras personales normales nunca ven de primera mano.
El
almacenamiento fuera de línea es un sistema donde el medio de almacenamiento puede ser extraído fácilmente del dispositivo de almacenamiento. Estos medios de almacenamiento suelen usarse para transporte y archivo de datos. En computadoras modernas son de uso habitual para este propósito los disquetes, discos ópticos y las memorias flash, incluyendo las unidades USB. También hay discos duros USB que se pueden conectar en caliente. Los dispositivos de almacenamiento fuera de línea usados en el pasado son cintas magnéticas en muchos tamaños y formatos diferentes, y las baterías extraíbles de discos Winchester.
Almacenamiento de red
El
almacenamiento de red es cualquier tipo de almacenamiento de computadora que incluye el hecho de acceder a una información a través de una red informática. Discutiblemente, el almacenamiento de red permite centralizar el control de información en una organización y reducir la duplicidad de la información. El almacenamiento en red incluye:
El
almacenamiento asociado a red es una memoria secundaria o terciaria que reside en una computadora a la que otra de éstas puede acceder a través de una red de área local, una red de área extensa, una red privada virtual o, en el caso de almacenamientos de archivos en línea, internet.
Las
redes de computadoras son computadoras que no contienen dispositivos de almacenamiento secundario. En su lugar, los documentos y otros datos son almacenados en un dispositivo de la red.

sábado, 28 de marzo de 2009

MS DOS Y OS 2

Distintas versiones.MS-DOS (Microsoft Disk Operating System - Sistema Operativo en Disco) es un sistema patentado por Microsoft Corporation para ordenadores personales PC's.El Sistema Operativo más difundido con diferencia es MS-DOS, este al estar diseñado para 16 bits y con la reciente aparición de Windows 95 de Microsoft, de 32 bits y con posibilidades de multitarea, ve peligrar su supremacía como rey indiscutible del entorno PC.Aunque la creencia general es que el sistema fue creado por Microsoft Corporation, esto no es cierto ya que el verdadero creador de este sistema fue Tim Paterson, un empleado de Seattle Computer Products.A partir de la aparición en 1981 del IBM-PC de 16 bits en el bus de direcciones, MS-DOS es el Sistema Operativo más difundido, ya que hay millones de microordenadores PC's distribuidos por el mundo, convirtiéndose en un sistema operativo estándar para este tipo de ordenadores; esta primera versión funcionaba sobre un equipo que disponía de 64 Kb. de memoria y dos disqueteras de 5,25 pulgadas de una cara y con una capacidad de 160 Kb., la CPU del ordenador era un modelo 8088 de 8 bits y con una velocidad de 4,7 Mhz.Este sistema operativo fue patentado por las empresas Microsoft Corporation e IBM, utilizándose dos versiones similares (una de cada empresa) llamadas MS-DOS y PC-DOS.A MS-DOS le acompañan unos números que indican la versión. Si la diferencia entre dos versiones es la última cifra representa pequeñas variaciones. Sin embargo, si es en la primera cifra representa cambios fundamentales. Las versiones comenzaron a numerar por 1.0 en agosto de 1981. En mayo de 1982 se lanzó la versión 1.1 con soporte de disquetes de dos caras. La versión 2.0 se creó en marzo de 1983 para gestionar el PC-XT, que incorporaba disco duro de 10 Mb, siendo su principal novedad el soporte de estructura de directorios y subdirectorios.En agosto de 1984, con la aparición de los ordenadores del tipo AT, que empleaban un procesador 80286, funcionaban a 8 Mhz de velocidad y tenían soporte de disquetes de 5 y cuarto de alta densidad (HD 1,2 Mb), MS-DOS evolucionó hacia la versión 3.0; esta versión podía ser instalada en ordenadores más antiguos, pero no se podía realizar la operación a la inversa.La versión 3.2 se lanzó en diciembre de 1985, para admitir unidades de disquete de 3 1/2 (DD 720 Kb y HD 1,44 Mb). La versión 3.3 se lanzó en abril de 1987 con posibilidades de crear múltiples particiones en discos duro.La versión 4.0 apareció en noviembre de 1988 y gestiona discos duros de particiones de más de 32 MB (hasta 512 MB). Además dispone de una nueva interface gráfica y soporte de memoria expandida, esta versión permite además el empleo de la memoria expandida del ordenador (anteriormente sólo se podían emplear 640 Kb de memoria RAM). Actualizar a la versión 4.0 desde una versión anterior puede traer dificultades ya que habrá que reformatear el disco duro bajo la nueva versión y es posible que algunos programas necesiten funciones de DOS que ya no estén disponibles.La versión 5.0 se lanzó en junio de 1991, y proporciona drivers para gestionar ampliaciones de memoria y se incorpora un editor de pantalla y un shell bastante potente, además de poder instalarse independientemente de la versión anterior de sistema operativo.La versión 6.0 se lanzó en abril de 1993 y como contenía abundantes errores fue sustituida el mismo año por la versión 6.2. Las mejoras de la versión 6.0 incluyen: herramientas de compresión de discos, antivirus, programas de copias de seguridad por menú, desfragmentador de disco y otras utilidades, como por ejemplo un administrador de memoria ampliada, denominado MemMaker. A finales de 1993 se lanzó la versión 6.2 con mejoras en el duplicador de espacio en disco y la posibilidad de borrar un directorio independientemente de su contenido entre otras ventajas.Países en los que se comercializa.El rey de los sistemas operativos se distribuye a lo largo y ancho de todo el mundo, en los cinco continentes y en países tan dispares como puedan ser Estados Unidos, México, Dinamarca, Grecia, Alemania, Australia, Nueva Zelanda, Israel, Emiratos µrabes Unidos, Italia, Suiza y, sobre todo, España.Breve descripción del MS-DOS.El MS-DOS es un sistema operativo mono usuario y monotarea.Al cumplir las dos condiciones arriba mencionadas el procesador está en cada momento está dedicado en exclusividad a la ejecución de un proceso, por lo que la planificación del procesador es simple y se dedica al único proceso activo que pueda existir en un momento dado.Instalación.Para instalar MS-DOS bastará con ejecutar el programa de instalación que está situado en el disquete número uno de MS-DOS. No es posible ejecutar MS-DOS desde los disquetes de instalación ya que dichos archivos están comprimidos.Instalar detecta el tipo de hardware y de software que contiene el PC y le comunica a este si no cumple con los requisitos mínimos o si existen características incompatibles con MS-DOS.Estructura del MS-DOS.El sistema operativo MS-DOS tiene una estructura arborescente donde existen unidades, dentro de ellas directorios y a su vez dentro de ellos tenemos los ficheros.Las unidades son las disqueteras y los discos duros.Los directorios son, dentro de las unidades, carpetas donde se guardan los ficheros.Los ficheros son conjuntos de datos y programas.El DOS tiene unos cien comandos, que para poder ser ejecutados necesitan tres ficheros:o IBMBIOS.COMo IBMDOS.COMo COMMAND.COMEl IBMBIOS.COM se encarga de las comunicaciones de entrada y salida.El IBMDOS.COM es el centro de los servicios del ordenador, es conocido también como kernel o núcleo.El COMMAND.COM carga y permite ejecutar todos los comandos.Estructura básica del sistema.El MS-DOS contiene cinco elementos fundamentales:· La ROM-BIOS.- Programas de gestión de entrada y salida entre el Sistema Operativo y los dispositivos básicos del ordenador.· La IO.SYS.- Son un conjunto de instrucciones para la transferencia de entrada/salida desde periféricos a memoria. Prepara el sistema en el arranque y contiene drivers de dispositivo residentes.· MSDOS.SYS.- Es el kernel de MS-DOS, en que figuran instrucciones para control de los disquetes. Es un programa que gestiona los archivos, directorios, memoria y entornos.· DBLSPACE.BIN.- Es el controlador del Kernel del compresor del disco duro que sirve para aumentar la capacidad de almacenamiento del disco, disponible a partir de la versión 6 del MS-DOS. Este controlador se ocupa de toda la compresión y descompresión de ficheros y se puede trasladar desde la memoria convencional a la memoria superior.· COMMAND.COM.- Es el intérprete de comandos, mediante los cuales el usuario se comunica con el ordenador, a través del prompt \>. Interpreta los comandos tecleados y contiene los comandos internos de MS-DOS que no se visualizan en el directorio del sistema.Los ficheros IO.SYS, MSDOS.SYS y DBLSPACE.BIN son ocultos, es decir, no se ven al listar el directorio, y se cargan desde el disco a la memoria del ordenador al arrancar éste.Comandos de ayuda.En MS.DOS existe una orden llamada HELP que permite ejecutar un programa en pantalla completa que ofrece ayuda al usuario a nivel de comandos. Este comando proporciona una referencia completa de los comandos de MS-DOS.El comando FASTHELP ejecuta un programa en el cual ofrece ayuda personalizada para cada orden del MS-DOS. Si se indica sin parámetros, muestra un índice de todos los comandos de los que puede ofrecer información.Si se ejecuta HELP o FASTHELP seguido del nombre de un comando, automáticamente se entra en la ayuda específica para ese comando sin la necesidad de pasar por el índice.
OS 2

OS/2 son las siglas de "Sistema operativo de segunda generación". La idea de OS/2 surgió entre IBM y Microsoft a mediados de los 80, en un intento de hacer un sucesor de MS-DOS, el cual ya empezaba a acusar el paso del tiempo y resultaba claramente desaprovechador de los recursos de las máquinas de la época (basadas en el Intel 286).
OS/2 1.0 salió en abril de 1987 y era un sistema operativo de 16 bits, pues estaba pensado para trabajar sobre el microprocesador 286. Sin embargo, aprovechaba plenamente el modo protegido de este ordenador, haciendo uso de sus capacidades para protección de memoria, gestión de multitarea, etc. El resultado fue un S.O. estable, rápido y muy potente.
OS/2 ya tenía incorporada desde esa primera versión la multitarea real. Se podían ejecutar varias sesiones simultáneamente, en cada una de ellas se podían tener múltiples programas, y cada uno de ellos podía tener múltiples threads en ejecución. Se trataba de una multitarea jerárquica, con cuatro niveles de prioridad: Crítico (útil para programas que requieran atención casi constante por parte de la CPU, como un módem), Primer plano (correspondiente al programa que tiene acceso a la pantalla, teclado y ratón), Medio (programas lanzados por el usuario que se ejecutan en BackGround) y Desocupado (tareas de poca importancia o lentas, como el Spooler de impresión). Dentro de cada nivel (a excepción del de Primer plano), existen 32 niveles de prioridad, los cuales son asignados dinámicamente a cada programa por el S.O. en función del porcentaje de uso de la CPU, de los puertos de E/S, etc.
OS/2, además, permitía memoria virtual, con lo que se podían ejecutar programas más largos que lo que la memoria física instalada permitiría en principio (los requerimientos de aquella versión eran un 286 con 2 megas de memoria). Por otro lado, incluía la característica de compartición de código: al cargar dos veces un mismo programa, el código de este no se duplicaba en memoria, sino que el mismo código era ejecutado por dos Threads diferentes. Esto permitía ahorrar mucha memoria.
Esta versión de OS/2 era íntegramente en modo texto. Si bien el Sistema Operativo daba la posibildad de usar los modos gráficos de la tarjeta del ordenador, no incluía ningún API que ayudase en ello, recayendo todo el trabajo de diseño de rutinas de puntos, líneas, etc en el programador de la aplicación. Esto no era realmente tan problemático, pues era lo que se hacía (y se hace) en el mundo del MS-DOS. Sin embargo, se hechaba en falta un entorno gráfico como Windows.
En la versión 1.1, aparecida en octubre de 1988, llegó por fin el Presentation Manager, un gestor de modo gráfico, junto con la primera versión de Work Place Shell. Ambos formaban un entorno gráfico muy parecido al aún no comercializado Windows 3.0. También hizo su aparición el formato de ficheros HPFS (High Performance File System). Este sistema de ficheros complementaba al clásico FAT, que era el usado por MS-DOS y por OS/2 1.0; sin embargo, ofrecía una gran cantidad de ventajas, tales como
Menor fragmentación de ficheros: HPFS busca primero una zona en donde el archivo entre completo, con lo que la fragmentación de ficheros es prácticamente inexistente. De hecho, IBM recomienda desfragmentar los discos duros una vez al año, y solo a los paranoicos.
Mayor capacidad: HPFS admite discos duros de hasta 512 gigabytes de capacidad, manteniendo el tamaño del cluster (unidad mínima de información almacenable) en 512 bytes o un sector. En FAT, el tamaño mínimo de cluster para un disco duro es 2048 bytes, y para discos mayores aumenta (un disco duro de 1 giga tiene un tamaño de cluster de 32Ks).
Soporte para nombres largos: permite nombres de hasta 256 caracteres.
Mayor seguridad: si al grabar en un sector se detecta un error, se marca automáticamente como defectuoso y se graba en otra parte.
Mayor velocidad en el acceso, gracias a la estructura jerarquica de directorios, que optimiza el acceso a disco.
El gran problema de OS/2 es que seguía siendo un S.O. de 16 bits, con lo que no aprovechaba plenamente las capacidades de los 386 de la época, que empezaron a extenderse con más velocidad de la esperada. Según una revista del sector, Microsoft sugirió hacer una versión de 32 bits (que obligaría a ejecutarla en ordenadores 386 o superiores), pero IBM insistió en perfeccionar la de 16 bits. Sobre quien dijo cada cosa realmente solo se puede especular. Lo único que se sabe a ciencia cierta es que la versión de OS/2 de 32 bits presentada por MicroSoft en 1990 era casi igual que la versión 1.3, con la única diferencia de que el cerner era de 32 bits. IBM, por su parte, quería un escritorio orientado a objetos, y no el clásico shell de OS/2 1.x (el cual MicroSoft copiaría para su Windows 3.0). Puestas así las cosas, finalmente se rompió el acuerdo entre ambos.
OS/2 2.0, la primera versión de OS/2 de 32 bits, iba a salir inicialmente a finales de 1990; pero al no contar con la ayuda de Microsoft, IBM no fue capaz de sacarlo hasta 1992, dandole a Windows 3.0 el tiempo suficiente para asentarse en el mercado.
OS/2 2.0 tenía todas las ventajas de los anteriores OS/2, unido al nuevo núcleo de 32 bits. No se trataba, por tanto, de un retoque de la versión de 16 bits, sino un sistema operativo prácticamente nuevo que aprovechaba al máximo las capacidades del modo protegido del microprocesador 386. Sin embargo, iba más allá que Windows, pues al contrario que éste, ofrecía compatibilidad garantizada con todas las aplicaciones de 16 bits anteriores, gracias a la inclusión del API original de 16 bits junto con el nuevo de 32, y además sin perdida de prestaciones. Así mismo, ofrecía también compatibilidad con Windows 2.x y 3.0, junto con una compatibilidad con MS-DOS muy mejorada, gracias al modo V86 que incorporan los micros 386 y del que carecía el 286: en OS/2 1.x la compatibilidad DOS era muy limitada, quedando reducida a una sola tarea y realizando un cambio entre modo real y modo protegido del microprocesador, además de consumir de manera permanente 640 Ks de memoria. Aparte, la emulación no era todo lo buena que cabía esperar. Todos estos problemas desaparecieron en la versión 2.0, pudiendo tener varias sesiones DOS totalmente independientes entre sí, con una compatibilidad cercana al 100% y beneficiándose de las capacidades de Crash Protection del OS/2, que impiden que un programa pueda colapsar el sistema entero.
Por otro lado, el Work Place Shell (el shell de trabajo gráfico, de ahora en adelante WPS) fue muy mejorado, resultando un shell totalmente orientado a objetos, con acceso directo a los ficheros, carpetas dentro de carpetas, ficheros sombra (conocidos como alias en los sistemas UNIX) y un escritorio de verdad. A su lado, el shell de Windows 3.0 quedaba a la altura del betún.
IBM consiguió vender OS/2 2.0 en grandes cantidades; sin embargo, no consiguio su autentico despegue, en parte por culpa de la falta de apoyo por parte de las empresas de software. El API del Presentation Manager, aunque similar al de Windows, tenía muchas diferencias, con lo que las empresas tuvieron que elegir entre uno u otro, ante la imposibilidad de muchas de ellas de dividir su talento entre ambos sistemas.
A principios de 1994 aparece OS/2 Warp, nombre comercial de la versión 3.0 de OS/2. En ella surgen nuevos elementos: un kit completo de multimedia (mejora del que traía la versión 2.1) y el Bonus Pak, un kit de aplicaciones que permite ponerse a trabajar con el ordenador nada más instalar el Sistema Operativo, pues contiene elementos como un Kit de conexión a Internet completo, el paquete integrado IBM Works (formado por un procesador de textos, hoja de cálculo, base de datos y graficos de empresa, junto con el PIM, que añade más funcionalidades aprovechando las capacidades drag&drop del WPShell), soft de terminal, soft de captura y tratamiento de video, etc. Así mismo, la cantidad de hardware soportado fue ampliado de manera considerable, soportando casi cualquier dispositivo existente en el mercado: CD-Roms, impresoras, tarjetas de sonido, soporte PCMCIA, tarjetas de video, tarjetas de captura de video, tarjetas SCSI, etc. Los requisitos mínimos de esta versión seguían siendo un 386sx a 16MHz con 4 megas de RAM, los mismos que Windows 3.11, y podía ejecutar programas DOS, OS/2 16bits, OS/2 32 bits, Windows 2.x y Windows 3.x (incluia además el API Win32s, con lo que se podían ejecutar incluso programas Windows de 32bits).
IBM se metió en una campaña publicitaria a nivel mundial para promocionar esta nueva versión, la cual, sin embargo, no dio los resultados esperados por ser demasiado light (todos recordaremos aquel anuncio de las monjitas en el convento, cuando una le dice a otra que ya tiene el nuevo OS/2 Warp, contando las nuevas características de este sistema operativo). A pesar de eso, OS/2 es ampliamente utilizado en múltiples empresas, bancos sobre todo, en donde su estabilidad es la mayor garantia (los propios cajeros automáticos funcionaban inicialmente con OS/2 1.0, si bien actualmente usan OS/2 Warp).
Poco después sale al mercado una revisión de Warp, denominada Warp Connect, la cual añade un kit completo de conexión a redes, soportando prácticamente cualquier estándar de red, incluyendo Novell Netware, TCP/IP, etc. junto con soporte para SLIP y PPP.
En Noviembre de 1996 se hizo la presentación de Merlín, nombre clave de OS/2 4.0, y que, en contra de lo que mucha gente piensa, no tiene nada que ver con el mítico mago de la corte del rey Arturo, sino con un pájaro parecido a un águila (siguiendo la nueva filosofía de IBM de nombrar sus creaciones con nombres de aves). Merlín trae todo lo que ofrecía OS/2 3.0, pero lo amplia con un conjunto extra de características, como son:
Un soporte todavía mayor de hardware.
Mayor simplicidad de instalación.
Librerías OpenDoc (compatibles con OLE 2.0, pero más potentes).
Librerías OpenGL, que permiten aprovechar las capacidades 3D de las tarjetas que soporten este estándar.
API de desarrollo Open32, que permiten recompilar con suma facilidad las aplicaciones escritas para Windows'95 y Windows NT, de forma que aprovechen al máximo los recursos de OS/2.
Un Bonus Pack ampliado, incluyendo una nueva versión del IBMWorks basada en OpenDoc, y las utilidades LotusNotes.
Un Kernel aún más optimizado.
Escritorio mejorado, ofreciendo una orientación a objeto aún mayor.
Un extenso soporte de conectividad, superior a la versión Connect de Warp 3.0, lo que le convierte en el cliente de red universal, pudiendo conectarse a casi cualquier servidor (no solo Warp Server, sino Windows NT server, Novell, etc).
HPFS mejorado: mayor capacidad por disco y seguridad.
Sesiones DOS reales (el micro se conmuta realmente a modo real, y todo el contenido de la RAM se guarda en disco, quedando el Sistema Operativo y el resto de las utilidades congelados, pudiendo rearrancar en cualquier momento. Es util para juegos o programas de DOS muy exigentes, que se niegan a funcionar en una sesión DOS virtual).
La característica estrella de cara al marketing: el VoiceType. Se trata de un software reconocedor de voz, capaz de funcionar con cualquier tarjeta de sonido, y que permite al usuario trabajar exclusivamente mediante el dictado de comandos. Este sistema, al contrario que otros disponibles hasta el momento, realmente reconoce el habla de forma continua, de modo que no solo se puede usar para navegar por el escritorio y controlar programas, sino que sirve perfectamente para dictar cualquier tipo de texto, como articulos, cartas, etc. sin tocar una sola tecla. Se trata, por tanto, de un avance de los que serán, sin duda, los sistemas operativos del futuro.

jueves, 26 de marzo de 2009

CENTRO DE COMPUTO Y DEPARTAMENTO DE SISTEMAS

CENTRO DE CÓMPUTO

El desarrollo tecnológico ha permitido que la computadora sea introducida en una gran cantidad de organizaciones las cuales concentran la función informática en departamentos, unidades o centros de procesamiento de datos que se encargan de proporcionar los servicios de cómputo necesarios a la organización.
Dentro de estos centros de cómputo se encuentran, además del equipo y programas que se procesan la información, los recursos humanos especializados, el factor más importante, de cuya habilidad depende la satisfacción de las necesidades de cómputo de las organizaciones.
Existen muchas y diferentes formas de organización de los centros de cómputo así como del enlace de las funciones de cada grupo personal que ahí labora.
En esta sección se presentan de manera general las que integran un centro de cómputo, sus funciones y el personal involucrado en cada uno de ellas.

Las Áreas que integran un centro de cómputo son:
ÁREA DIRECTIVA
El área directiva realiza, un alto nivel, las funciones de planeación, organización, administración de personal y control; además de coordinar las actividades de las áreas que dependen de ella, se encarga de planear y controlar los recursos de información de un organismo.

Un centro de cómputo es una unidad, que proporciona servicios a toda una organización y su área directiva es el enlace principal entre las otras áreas y el centro mismo.
Es en esta área en la que se decide si algunas aplicaciones son factibles de realizar, considerando la relación costo-beneficio y una vez establecido los proyectos, que se encargan de asignar las tareas al personal técnico que se requiera.
ÁREA TÉCNICA

Esta área esta integrada por expertos en informática y su principal función es brindar el soporte técnico especializado que se requiere en las actividades de cómputo Esta Área está conformada por:

ANALISTAS, PROGRAMADORES, PROGRAMADORES DE SISTEMAS Y ADMINISTRADORES DE BASE DE DATOS
ANALISTAS
Los analistas tienen la función de establecer un flujo de información eficiente a través de toda la organización

Los proyectos asignados a los analistas no necesariamente requieren de la computadora, más bien necesitan el tiempo suficiente para realizar el estudio y la proposición de soluciones de los problemas, planteando diferentes alternativas que pueden afectar únicamente o bien ocasionar un cambio drástico en toda la organización. La realización de cualquiera de les soluciones puede durar varias semanas o meses dependiendo de la complejidad del problema.
Los proyectos típicos de sistemas pueden implicar el diseño de reportes, la evaluación de los trabajos efectuados por el personal de los departamentos usuarios, la supervisión de cambios de equipo la preparación de presupuesto en el área de cómputo. Los analistas pueden ser egresados de diferentes carreras y básicamente los requisitos para estos son: educación profesional formal y experiencia práctica, esta última solo se logra después de haber trabajado en el área de programación.
Existen diferentes títulos de analistas: Analista Júnior, Aprendiz de Sistemas y Analista Senior que indican diferentes grados de experiencia, entrenamiento y educación. A su vez estos pueden tener todavía más clasificaciones dependiendo del tamaño de la organización, o bien puede haber analistas programadores que realizan tanto la función de analistas como la de programadores, esto indica una doble responsabilidad. Además los analistas pueden estar agrupados en equipos cuyas funciones son coordinadas por analistas líder o jefes de análisis.
PROGRAMADORES
El grupo de programación es el que se encarga de elaborar los programas que se ejecutan en las computadoras, modifican los existentes y vigilan que todos los procesos se ejecuten correctamente.
Los programadores toman las especificaciones de los sistemas realizados por los analistas y las transforman en programas eficientes y bien documentados para las computadoras. Así como los analistas, los programadores pueden clasificarse en:
"Programadores júnior" o "Aprendices de Programación" que son personas recién graduadas, personal de operación que demuestra interés en la programación o graduados de escuelas técnicas de computación, "Programadores Senior" son los que ya tienen varios años de experiencia en proyectos grandes.

PROGRAMADORES DE SISTEMAS
Los programadores de sistemas deben tener los conocimientos suficientes del hardware para poder optimizar la utilización del equipo. Su función es extremadamente técnica y especializada ya que deben seleccionar, modificar y mantener el complejo software del sistema operativo.

ADMINISTRADORES DE BASE DE DATOS

El "administrador de base" de datos establece y controla las definiciones y estándares de los datos; coordina la recopilación de los datos y las necesidades de almacenamiento de los mismos; asesora a los usuarios en el diseño de archivo y la base de datos; y proyecta e implanta el sistema de seguridad de la base de datos como protección contra el uso no autorizado. El administrador de base de datos debe poseer gran conocimiento técnico y destreza para mantener la estabilidad de las relaciones con los usuarios. Los requerimientos de educación son: un título profesional y tener experiencia en programación.
ÁREA OPERATIVA
Esta área se encarga de brindar los servicios requeridos para el proceso de datos, como son el preparar los datos y suministros necesarios para la sala de cómputo, manejar los equipos periféricos y vigilar que los elementos del sistema funcionen adecuadamente.
En esencia el personal del área operativa se encarga de alimentar datos a la computadora, operar el "hardware" necesario y obtener la información resultante del proceso de datos.
OPERADORES
Los operadores de computadoras preparan y limpian todo el equipo que se utiliza en el proceso de datos, mantienen y vigilan las bitácoras e informes de la computadora, montan y desmontan discos y cintas durante los procesos y colocan las formas continuas para la impresión.
El papel de los operadores es muy importante debido a la gran responsabilidad de operar la unidad central de proceso y el equipo periférico asociado en el centro de cómputo. Un operador de computadoras requiere de conocimientos técnicos para los que existen programas de dos años de capacitación teórica, pero la práctica y la experiencia es generalmente lo que necesita para ocupar el puesto.
CAPTURISTAS DE DATOS
Los capturistas de datos son los primeros en manejar y convertir los datos de su forma original a un formato accesible para la computadora.
Este tipo de personal puede operar diferentes dispositivos de teclado para proporcionar los datos directamente a la computadora.
No obstante la importancia del trabajo de los preparadores de datos su educación no requiere una formación técnica formal, un mecanógrafo competente puede adquirir en pocas horas de instrucción especializada las habilidades necesarias para la preparación de datos.

ÁREA ADMINISTRATIVA
El área administrativa esta encargada de controlar los recursos económicos para el abastecimiento de materiales especializados tales como: equipo, cintas magnéticas, discos removibles, formas continuas y manuales para el funcionamiento del centro.
También esta área tiene control sobre lo referente a personal y mantenimiento de las instalaciones.
Las áreas que se presentaron en este capitulo como partes de un centro de cómputo pueden ser específicas para el centro o pueden estar ligadas con otras actividades de la organización, mucho depende del tamaño de esta.
DEPARTAMENTO DE SISTEMAS
Es la parte o área de una institución que se encarga de proveer de
información así como de las herramientas necesarias para manipularla. Es el departamento que auxiliado con el equipo de cómputo, es capaz de convertir simples datos en información, es el encargado, de satisfacer las necesidades y preparación computacional a todos los miembros de una empresa, y es el responsable de ofrecer soluciones informáticas y el equipo necesario para su implementación
Se le llama Departamento de Sistemas porque es precisamente a través de
Sistemas de Información, que se ofrecen la mayoría de las soluciones, sin embargo es llamado también Departamento de Informática por ser precisamente el proveedor de información.
El trabajo medular de un Departamento de
Informática se hace, como lo mencionamos anteriormente, a través de un Sistema de Información. El conocimiento de sistemas de información abarca tanto perspectivas técnicas como conductuales, destacando la conciencia de las dimensiones de administración, organización y tecnológicas de los mismos. Los sistemas de información definen cinco retos claves para los administradores de hoy día: el reto del negocio estratégico; el reto de la globalización, el reto de la arquitectura de la información; el reto de la inversión en sistemas de información y el reto de la responsabilidad y control.
Proporcionas
soluciones reales en los distintos tipos de sistemas de información en las instituciones actuales: Sistemas de procesamiento de las operaciones comerciales, Sistemas de automatización del conocimiento/trabajo en la oficina, Sistemas de información para la administración, Sistema de soporte a las decisiones, y Sistemas de soporte para la gerencia. Estos sistemas sirven para diversos fines al dar apoyo a los diferentes niveles y funciones de la institución.Un sistema de información puede definirse técnicamente como un conjunto de componentes interrelacionados que permiten capturar, procesar, almacenar y distribuir la información para apoyar la toma de decisiones y el control en una institución. Además, para apoyar a la toma de las decisiones, la coordinación y el control, los sistemas de información pueden también ayudar a los administradores y al personal a analizar problemas, visualizar cuestiones complejas y crear nuevos productos.

FUNCIONES DEL DEPARTAMENTO.
La principal función de un Departamento de Sistemas es crear y ofrecer sistemas de información que permitan dar solución a las necesidades informáticas y de
toma de decisiones de la institución.
Es necesario hacer notar que nosotros como departamento de Sistemas somos un departamento de
servicio, y que nuestros clientes son precisamente los demás departamentos que conforman el grupo. Los productos que nosotros ofrecemos son servicios y se pueden agrupar en las siguientes funciones:
1.- La administración y mantenimiento de los sistemas existentes en el grupo
2.-Asesoría y
capacitación a los diferentes departamentos y empresas del grupo.
3.- Estudios de
factibilidad, compra e instalación de equipo
4.-
Evaluación y adquisición de software y paquetería.
5.- Desarrollo de nuevos sistemas.
6.- Elaboración de
manuales y documentación
7.- Administración y mantenimiento de Pcs, Redes y equipo As400
8.- Revisión periódica de las necesidades de información.
9.- Contratación de servicios y asesorías externas.
10.- Mantenimiento y reparación de equipo de cómputo.
11.-
Control de compras de todo lo relacionado con equipo, software, consumibles y accesorios computacionales.
12.- Implementación y administración de los
servicios de Internet e Intranet y correo electrónico.
Metas y Objetivos.
El
objetivo básico del Departamento de Sistemas consiste en suministrar la información que se necesita para controlar la estrategia y llevar a cabo las diferentes funciones de la empresa, así como de las herramientas necesarias para su manipulación.
Aunque el
objetivo es único y primordial, se dice que es inalcanzable ya que es el fin al que se debe llegar, y el fin maraca la terminación de todo. Al objetivo uno se acerca y los avances hacia él, se miden por medio de metas, las cuales son concretas y alcanzables.
Desde la creación del departamento se marcaron un conjunto de metas, las cuales se han ido alcanzando conforme pasa el
tiempo, sin embargo al cumplir el ciclo administrativo (planeación y control) y revisar los planes de acción y los logros obtenidos, se replantean nuevas metas que muchas veces son las mismas con algunas innovaciones o mejoras, pudiendo centrarnos en las siguientes como principales y constantes.
a) Constituir el
grupo como una sola institución e implementar un sistema de información único que funcione para todas las áreas.
b) Estandarizar los equipos y sistemas.
c) Crear y aplicar un
plan de capacitación y adiestramiento constante y eficaz.
d. Crear y llevar a cabo un
plan de renovación y actualización de equipo y software.
e. Mantener la integridad de la información.
f. Crear un
plan efectivo de contingencia.
g. Elaborar programas y sistemas confiables y operativos que faciliten las labores de los empleados y logren ahorros considerables y la toma de buenas decisiones.
h. Tener documentados todos los sistemas.
i. Crear un
presupuesto real y confiable.
j. Crear un plan y llevar a cabo las
acciones necesarias para salvaguardarnos del problema del año 2000.
k. Crear un
ambiente sano y cordial entre el personal del departamento y para con los demás usuarios.
l. Mantenernos como un departamento
líder en los servicios que ofrecemos.

martes, 10 de marzo de 2009

Y2K


(Year 2 K) Año 2000. Error de los ordenadores a nivel mundial que suponía que fallarían al cambiar del año 1999 al año 2000. La paranoia llevó a pensar hasta en una catástrofe mundial y se gastaron cifras millonarias para actualizar los sistemas.El problema eran los ordenadores que manejaban años de dos cifras: 97, 98, 99, y que al cambiar al 00 se interpretarían como 1900, trayendo problemas en los sistemas.Finalmente hubo casos aislados con errores en las fechas, pero nada grave.
El problema del año 2000, conocido como efecto 2000, error del milenio, problema informático del año 2000 (PIA2000) o Y2K, es un bug o
error de software causado por la costumbre que habían adoptado los programadores de omitir el año para el almacenamiento de fechas (generalmente para economizar memoria), asumiendo que el software sólo funcionaría durante los años cuyos nombres comenzaran con 19. Lo anterior tendría como consecuencia que después del 31 de diciembre de 1999, sería el 1 de enero de 1900 en vez de 1 de enero de 2000.
Potenciales efectos que este
bug causaría:
Los programas que cuentan el número de años a través de
la sustracción de las fechas, obtendrían una cantidad de años negativa. Por ejemplo, si una persona nació en 1977, la edad de esta persona en 2000 sería: 00-77 = -77 años.
El problema del año 19100, común en programas que cuentan el año utilizando los dos últimos dígitos y muestran los dos primeros dígitos del año como 19. Al intentar mostrar el año después del 1999, el programa muestra 19 y luego el número que sigue el 99, o sea: 19100.
Al acercarse el año 2000, surgieron muchos rumores de casos y catástrofes económicas en el mundo entero, un pavor generalizado a un eventual colapso de los
sistemas basados en computadoras por causa de este problema. La corrección del problema costó miles de millones de dólares en el mundo entero, sin contar otros costes relacionados.
Existen otros problemas similares, relacionados con la representación de fechas:
En
UNIX, la fecha es representada por un número entero de 32 bits con signo, que puede contar de -231 a 231-1. Este número es la cantidad de segundos desde 1 de enero de 1970. Así, el año 2038 será el último año representable por este sistema. Véase: problema del año 2038.
En sistemas más anticuados, como por ejemplo
Windows en sus versiones 1.x, 2.x y 3.x, el problema radicaba en la omisión de dichos dígitos. En este caso, el problema era un poco más complejo, ya que al cumplirse el primer segundo del año 2000, sería el 01/04/1980 (es decir, el año en que se creó el MS-DOS, sistema operativo de estos entornos).
Por su parte,
Apple,Inc., en 1998, había afirmado por medio de sus portavoces que sus unidades existentes, desde la clásica Apple I hasta la vigente por aquel entonces, iMac, no representaban ningún peligro, ya que sus sistemas operativos (Finder y Multifinder) representaban como último año el 2029, aunque existía la posibilidad de configurarlo.
El 1 de enero 2000
Cuando llegó el 1 de enero del 2000 los problemas eran mirados generalmente como de menor importancia. Éstos no tuvieron siempre que ocurrir exactamente a la medianoche. Algunos programas no estaban activos en ese momento y demostrarían ese error solo cuando fueran abiertos. No todos los problemas registrados estuvieron relacionados directamente a Y2K como causa; las interferencias de menor importancia en la tecnología ocurren normalmente, como cualquier persona que haya tenido que reiniciar un ordenador personal reconocerá.
Los problemas divulgados son:
En Ishikawa, Japón, un equipo de supervisión de radiación falló a medianoche, pero los funcionarios dijeron que no había ningún riesgo para el público.
En Onagawa, Japón, una alarma sonó en una planta de energía atómica dos minutos después de la medianoche.
En Japón, dos minutos después de la medianoche, Osaka Media Port, una compañía de telecomunicaciones, encontró errores en el manejo de las fechas en parte de la red de la compañía. El problema fue arreglado a las 2:43 a.m. y no se interrumpió ningún servicio.
En Japón, la red de comunicaciones móvil de NTT (NTT DoCoMo), el operador celular más grande de Japón, divulgó el 1 de enero de 2000, que algunos modelos de teléfonos móviles suprimían los nuevos mensajes recibidos, en lugar de los viejos, cuando se llenaba la memoria.
En Australia, las máquinas validadoras de billetes de autobús de dos estados no pudieron funcionar.
En Estados Unidos, 150 máquinas tragamonedas en las pistas de carreras en Delaware dejaron de funcionar.
En Estados Unidos, el observatorio naval, donde funciona el reloj principal que marca el tiempo oficial del país, tuvo una interferencia de Y2K en su sitio Web. Debido a un problema de programación, el sitio divulgó que la fecha era el 1 Enero de “19100”.
En Francia, el servicio nacional de meteorología, Meteo Francia, dijo que un error de Y2K había hecho que su página
web mostrara un mapa con el parte meteorológico del sábado con fecha “01/01/19100”.
En el Reino Unido, algunas transacciones de tarjetas de crédito fueron rechazadas o fallaron en conjunto mientras que trabajaron recíprocamente ciertos sistemas.
En Italia,
Telecom Italia envió los primeros dos meses de cuentas, con fecha de enero de 1900.
En Pennsylvania, Estados Unidos, una computadora de la biblioteca de una escuela primaria cobró al cuerpo estudiantil excesivamente por tener prestados los libros durante 100 años.
En algunas webs de empresas de transporte, algunos paquetes figuraban que habían tardado 17.101 años (19.100 menos 1.999) más algún día, y éstos días son los que realmente se tardo en entregar.
En España, se detectaron problemas menores en dos centrales nucleares, en alguna gasolinera y en el sistema de recogida de datos de tráfico.
En muchos sitios
Web del mundo, donde empleaba hora y fecha; la hora la interpretaba incorrectamente y la fecha con 1 enero 1900 o 19100. En caso de la hora, si eran las 2 de la mañana, el reloj estaba interpretado así: 92:60:14 haciendo alusión a los segundos.

lunes, 2 de marzo de 2009

ESCUELA: U P I I C S A


NOMBRE: BARRIOS CORTES ANGELICA


BOL. 2008602436


PROFR. (A): OROS ACOSTA ROSA MARIA


MATERIA: FUNDAMENTOS DE LA COMPUTACIÓN


SECUENCIA: 1CV3