Banner

viernes, 3 de junio de 2016

Impresora

IMPRESORA




Una impresora es un dispositivo periférico que permite la impresión de documentos de manera física y esta las imprime en hojas de papel, su funcionamiento se debe a una estructura completa donde cada parte cumple una función específica pasando por un proceso para que la impresión de algún documento se realice con mucha exactitud. La manera con la cual se traspasa el documento a la hoja se debe al uso de tóner, cartuchos de tinta o actualmente con tecnología láser.  


Estas impresoras interactúan con el ordenador a través de unos drivers que se deben instalan al momento en que se quiera utilizar, o actualmente los ordenadores reconocen instantáneamente la impresora debido a las actualizaciones de los sistemas operativos recientes. Ya reconocida la impresora esta puede ser utilizada por el usuario para realizar alguna acción que requiera de la impresora.


Las impresoras solamente no sirven para imprimir, sino que en la actualidad estas pueden servir de scanner y fotocopiadora, haciendo que la impresora sea mucho más versátil y más atractivo a la vista de los compradores. 



HISTORIA DE LAS IMPRESORAS



La historia de la primera impresora se puede remontar junto con la creación de la primera computadora, la máquina analítica de Charles Babbage, a pesar de que el inventor nunca logró construir su PC; sí terminó los planos en los que se incluía el mecanismo de impresión. En 1950 llega la primera impresora eléctrica para computadoras, sin embargo sólo era capaz de imprimir textos. Siete años más tarde se desarrolla la impresión por matriz de puntos, pero contaba con las mismas limitaciones que su antecesor. En 1959 Xerox fabrica la fotocopiadora y para 1973 aparece la primera fotocopiadora a color, fabricada por Canon. En 1978 se crea la impresora de margarita, que únicamente podía escribir letras y números, pero teníala calidad de una máquina de escribir. 
Finalmente en 1980 aparece la impresora láser en blanco y negro, 8 años más tarde le implementan la modalidad de color.



EVOLUCIÓN DE LAS IMPRESORAS




A pesar de lo que podamos pensar, las impresoras son un invento reciente si tenemos en cuenta la aparición de la imprenta en 1440. Los primeros modelos aparecen en la década de 1940, pero no es hasta 1976 cuando surge la primera impresora como la conocemos hoy.

IBM fue la primera empresa capaz de integrar la impresión en una sola máquina con un tamaño compacto. Es en 1959 cuando lanza la impresora de líneas IBM 1403. Fue capaz de imprimir 600 líneas de texto por minuto a través de un sistema de cinta que se enrollaba y desenrollaba constantemente mientras era golpeada por un conjunto de martillos que marcaban los caracteres durante la impresión.

La primera impresora láser fue desarrollada por Xerox Parc desde 1969 y el proyecto finalizó con su lanzamiento en noviembre de 1971, EARS fue el nombre de la primera impresora láser de la historia.

En este ámbito, no podía faltar la compañía Hewlett-Packard, más conocida como HP, pionera en muchos productos tecnológico, en 1976 creó la primera impresora de inyección de tinta. Es decir, la primera que precisaba cartuchos de tinta. No llegó a los hogares hasta 1988 y el primer modelo apenas ofrecía una velocidad de impresión de 2 páginas por minuto.

El último gran hito importante lo protagonizó Apple en 1984 con una impresora capaz de reproducir tanto texto como imágenes hasta una resolución de 144 DPI. La   fue pensada para utilizar con el Apple II y el sistema consistía en un cabezal que se movía en ambas direcciones para imprimir texto y una sola dirección en el caso de las imágenes.

Desde entonces, las impresoras han ido evolucionando hacia modelos más eficientes y sistemas que optimizan el uso de cartuchos de tinta y tóner. Además, el presente y futuro de la impresora se encamina la multifunción y la impresión desde dispositivos móviles

miércoles, 25 de mayo de 2016

Kernel

KERNEL




O también llamado núcleo, el kernel es la parte más fundamental del sistema operativo de cualquier dispositivo electrónico. Es el que permite la interacción directa de usuario y equipo, es el responsable de facilitar el acceso seguro de las aplicaciones al hardware. Se le llama ordinariamente como el corazón del sistema operativo.


Todos los dispositivos que posean un sistema operativo se necesita el kernel, como se nombraba anteriormente, es la parte central del sistema operativo. Son utilizados en los sistemas operativos como Linux, Android y Windows. Y para cada uno de éstos sistemas operativos el kernel funciona de una manera muy específica, él recibe las ordenes que damos desde el hardware al sistema operativo. 



Siglas Informáticas

SISD



Su significado es Single Instruction, Single Data y traducido significa Una Instrucción, Un dato.

Son las computadoras convencionales Von Neumann, actualmente llamadas PC'S. Estos son equipos que utilizan un sólo procesador y trabajan sobre un sólo dato a la vez. También suelen ser llamados computadoras secuenciales.

SISD



Su significado es Single Instruction, Multiple Data, y su traducción es Una Instrucción, Datos Múltiples. Son instrucciones que se aplican a una aplicación. Típicamente tienen miles de procesadores simples. Las computadoras SISD tienen un sólo procesador pero tienen miles de unidades funcionales donde la unidad de control se encarga de enviar la misma instrucción a todas las unidades funcionales. Estos equipos son adecuados para ciertas aplicaciones particulares, como la de procesamiento de imagenes.




MIMD



Su significado es Multiple Instrution, Multiple Data, traducido, Instrucción Múltiple, Datos Múltiples. Tienen unos procesadores que funcionan de manera asíncrona e independiente. Este tipo de arquitectura se utiliza en el diseño asistido, simulación, modelado y en interruptores. Tienen diferentes tipos de información que se asignan a determinados procesadores, y estos pueden tener memoria compartida o distribuida. Cada procesador tiene su unidad de control y sus unidades funcionales. En este tipo de computadoras MIMD pueden ser utilizadas en aplicaciones con información o tareas en paralelo.




MISD


Su significado es Multiple Instruction, Single Data, y traducido, Instrucción Múltiple, Un Dato.

Es un tipo de arquitectura computacional donde las unidades de funcionales realizan diferentes operaciones en los mismos datos

miércoles, 4 de mayo de 2016

Maquinas Virtuales

MÁQUINAS VIRTUALES



Una máquina virtual es un software que simula un computador dentro de nuestro computador. A lo que me refiero es que se puede realizar tareas y ejecutar aplicaciones como si fuese un computador real. Estos pueden emular a un ordenador con todos sus recursos y componentes que hay generalmente en la instalación de estos. También estos son utilizados por los aficionados a la informática para probar distintos tipos de sistemas operativos y explorarlos totalmente.


PRINCIPALES VENTAJAS DE LA MÁQUINA VIRTUAL



  • Permite trabajar con programas de mayor tamaño que la memoria física.
  • Permite tener más programas cargados a la vez.
  • Permite que los programas empiecen a ejecutarse antes
  • Reduce la frecuencia de intercambios de procesos 
  • Hay menos trabajo de E/S durante el intercambio de procesos 


DESVENTAJAS DE LA MÁQUINA VIRTUAL



La principal desventaja de una máquina virtual es que causa lentitud en nuestro sistema debido a la gran cantidad de memoria que requiere la utilización de esta. Para evitar esto se necesita tener un ordenador de bastante capacidad de memoria RAM y demás características que se necesitan para poseer un ordenador potente o de gran capacidad


PROGRAMAS PARA TRABAJAR CON MÁQUINAS VIRTUALES



Existen varios tipos de software con los cuales se puede trabajar esta idea de máquina virtual, algunos son gratuitos y otros debidamente requieren de una compra por el distribuidor. También estos software son exclusivamente para ciertos tipos de software, aunque la gran mayoría de estos software pueden ser utilizados en la gran mayoría de sistemas operativos actuales. Algunos de estos programas son:


  • VirtualBox
  • VMware PLayer
  • Microsoft VirtualPC
  • Parallels



Origen de los sistemas operativos

Origen de los sistemas operativos



En un principio no existía el término sistema operativo, los sistemas computacionales de antes funcionaban con un lenguaje de máquina absoluto y estos ocupaban cuartos completos llenos de tubos de vacío y tableros enchufables. Las funciones que podían realizar eran bastante limitadas ya que sólo podían realizar una tarea y nada más, por ejemplo utilizar un procesador de texto. Cada parte era muy indispensable, cada una cumplía una función específica para que se pudiese controlar las funciones básicas de la máquina. Antes todas las ordenes eran codificadas a mano, el programador debía ordenar las instrucciones manualmente para que se hiciera algo específico. A mediados de los años 50 se empezaba a crear un sistema que fuese mucho más ágil, en sus comienzos se perdía mucho tiempo terminando una tarea e iniciando una nueva, esa fue la razón por la cual se empezaron a crear los sistemas de procesamiento por lotes 

martes, 22 de marzo de 2016

Windows

WINDOWS



HISTORIA


La primera versión de Microsoft Windows, versión 1.0, presentada en Noviembre de 1985, compitió con el sistema operativo de Apple. Carecía de un cierto grado de funcionalidad y logró muy poca popularidad. Windows 1.0 no era un sistema operativo completo. más bien, era una extensión gráfica de MS-DOS. Windows versión 2.0 fue lanzado en Noviembre de 1987 y fue un poco más popular que su precedor. Windows 2.03 (lanzado en enero de 1988) incluyó por primera vez ventanas que podían solaparse unas a otras. El resultado de este cambio llevó a Apple a presentar una demanda contra Microsoft, debido a que infringían derechos de autor.

En 1975, Gates y Allen constituyen una sociedad denominada Microsoft. Como la mayoría de las empresas cuando dan sus primeros pasos, Microsoft comienza siendo una compañía pequeña, pero con una visión enorme: Un equipo informático en cada escritorio y en cada hogar. Durante los años venideros Microsoft comenzará a cambiar la forma en que trabajamos.

Desde un punto de vista técnico, no son sistemas operativos, sino que contienen uno (tradicionalmente MS-DOS, o el más actual cuyo núcleo es Windows NT) junto con una amplia variedad de software; no obstante, es usual (aunque no necesariamente correcto) denominar al conjunto como sistema operativo en lugar de distribución Microsoft indujo un entorno operativo denominado Windows, el 20 de noviembre de 1985 como un complemento para MS-DOS en respuesta al creciente interés en las interfaces gráficas de usuario (GUI). Microsoft Windows llegó a dominar el mercado mundial de computadores personales con más del 90% de la cuota del mercado, superando a Mac OS, que había sido introducido en 1984.


SEGURIDAD


Una de las principales críticas que con frecuencia reciben los sistemas operativos Windows es la debilidad del sistema en lo que a seguridad se refiere y el alto índice de vulnerabilidades críticas. El propio Bill Gates, fundador de Microsoft, ha asegurado en repetidas ocasiones que la seguridad es el objetivo primordial para su empresa.

Partiendo de la base de que no existe un sistema completamente libre de errores, las críticas se centran en la lentitud con la que la empresa reacciona ante un problema de seguridad que pueden llegar a meses o incluso años de diferencia desde que se avisa de la vulnerabilidad hasta que se publica un parche.


En algunos de los casos la falta de respuesta por parte de Microsoft ha provocado que se desarrollen parches que arreglen problemas de seguridad hechos por terceros.

uno de los pilares en que se basa la seguridad de los productos Windows es la seguridad por ocultación, en general, un aspecto característico del software propietario que sin embargo parece ser uno de los responsables de la debilidad de este sistema operativo ya que, la propia seguridad por ocultación concluye una inflación del principio de Kerckhoff, el cual afirma que la seguridad de un sistema reside en su diseño y no en una supuesta ignorancia del diseño por parte del atacante.


VENTAJAS  


  • La instalación es sencilla.
  • Es multitarea y multiusuario.
  • Brindan la posibilidad de asignar diferentes permisos a los usuarios.
  • Permite cambiar periódicamente las contraseñas.
  • El sistema está protegido del acceso ilegal.
  • Trabaja con impresoras de estaciones remotas.
  • Muestra estadísticas de errores de sistema.
  • Permite realizar diferentes tipos de auditorías.


DESVENTAJAS


  • Tiene ciertas limitaciones por RAM.
  • En la versión XP requiere como mínimo 128MB en RAM y un procesador Pentium de 233 MHZ o superior.
  • El usuario no puede limitar la cantidad de espacio en el disco duro.
  • No soporta archivos NFS.
  • No ofrece bloqueo de intrusos.
  • No soporta la ejecución de algunas aplicaciones para DOS.


CARACTERÍSTICAS


  • GUI: Toda la información presentada totalmente gráfica.
  • Tareas Múltiples: Permite ejecutar varias aplicaciones a la vez.
  • Nombres Largos: Permite el uso de nombres largos, hasta 255 caracteres para nombrar archivos.
  • Asistente: Contiene una forma fácil de realizar más rápido las tareas al ser guiados paso a paso.
  • Entorno Red: Es una excelente plataforma para implementar una Red, con la cual podemos compartir información, impresoras, etc.
  • Ayuda: Todas las aplicaciones cuentan con ayuda para aquel usuario inexperto en el uso de programas.

LOGO DE WINDOWS


Interfaz gráfica en Windows



Linux

LINUX


HISTORIA

El proyecto GNU que se inició en 1983 por Richard Stallman, tiene como objetivo el desarrollo de un sistema operativo Unix completo y compuesto enteramente de software libre. La historia del núcleo Linux está fuertemente vinculada a la del Proyecto GNU. En 1991 Linus Torvalds empezó a trabajar en un reemplazo no comercial para Minx12 que más adelante acabaría siendo Linux.
Cuando Torvalds presentó la primera versión de Linux en 1992 el proyecto GNU ya había producido varias de las herramientas fundamentales para el manejo del sistema operativo, incluyendo un interprete de comandos, una biblioteca C y un computador, pero como el proyecto contaba con una infraestructura para crear su propio núcleo ( o kernel), el llamado Hurd y este aún no era lo suficientemente maduro para usarse se optó por utilizar Linux para poder continuar desarrollando el proyecto GNU, siguiendo la tradicional filosofía de cooperación entre desarrolladores. 


FORTALEZAS 



  • Duplicado de Unix, lo que significa que incorpora muchas de las ventajas de este importante sistema operativo.
  • En Linux pueden correr varios procesos a la vez de forma ininterrumpida como un servidor de red al tiempo que un procesador de textos, una animación, copia de archivos o revisar el correo electrónico.
  • Seguridad porque es un sistema operativo diseñado con la idea de cliente servidor con permisos de acceso y ejecución a cada usuario. Esto quiere decir que varios usuarios pueden utilizar una misma máquina al tiempo sin interferir en cada proceso.
  • Linux integra una implementacion completa de los diferentes protocolos y estándares de red, se conecta a Internet y accede a todo tipo de información disponible.
  • Su filosofía y sus programas están dictados por el movimiento "Open Source" que ha venido creciendo en los últimos años y ha adquirido la suficiente fortaleza para hacer frente a los gigantes de la industria del software.
  • Linux puede ser utilizado como una estación personal pero también como un potente servidor de red.
  • Linux incorpora una gama de sistemas de interfaz gráfica (ventanas) de igual o mejor calidad que otras ofrecidas a muchos paquetes comerciales.
  • Posee el apoyo de miles de programadores a nivel mundial.
  • El paquete incluye el código fuente. 

DESVENTAJAS 


  • Linux no cuenta con una empresa que lo respalde, por lo que no existe un verdadero soporte como el de otros sistemas operativos.
  • La pendiente de aprendizaje es lenta.
  • No es tan fácil de usar como otros sistemas operativos, aunque actualmente algunas distribuciones están mejorando su facilidad de uso, gracias al entorno de ventanas, sus escritorios y las aplicaciones diseñadas específicamente para él, cada día resulta más sencillo su integración y uso.
  • Documentación y terminología muy técnica.
  • Para usuarios corrientes, todavía no es un sistema de escritorio.
  • Funciona únicamente con proveedores de hardware que accedieron a la licencia GPL y en algunas instancias no es compatible con variedad de modelos y marcas.
  • Requiere consulta, lectura e investigación en lista, foros o en bibliografía dedicada al tema.
  • La configuración de dispositivos de entrada y salida no es trivial.
  • Muy sensible al hardware.
  • Muchas distribuciones e idiomas.
  • Hay que leer y entender código


SEGURIDAD Y COMUNICACIÓN EN LINUX

  • Linux proporciona seguridad al solicitar la identificación y contraseña a cada usuario para acceder al sistema de cualquiera de las formas posibles: local o remoto.
  • Protección de ficheros, tanto del sistema operativo como de los ficheros de usuario.
  • Establecimiento de normas de seguridad frente ataques del sistema, así como la seguridad física de la máquina.

DESARROLLO Y COMPATIBILIDAD


En 1991, en Helsinki, Linus Torvalds comenzó un proyecto que más tarde llegó a ser el núcleo de Linux. Esto fue al principio un emulador terminal, al cual Torvalds solía tener acceso en los grandes servidores Unix de la universidad.


Logo y Nombre

Intefaz gráfica de Linux



Unix

Unix



HISTORIA


A finales de la década de 1960, el Instituto Tecnológico de Massachusetts, los laboratorios Bell de AT&T y General Electric trabajaban en un sistema operativo experimental llamado Multics (Multiplexed Infomation and Computing Service), desarrollando para ejecutarse en una computadora central (Mainframe) modelo GE-645. El objetivo del proyecto era desarrollar un gran sistema operativo interactivo que contase con muchas innovaciones, entre ellas mejoras en las políticas de seguridad. El proyecto consiguió dar a luz versiones para producción, pero las primeras versiones contaban con un pobre rendimiento. Los laboratorios Bell de AT&T decidieron desvincularse y dedicar sus recursos a otros proyectos. 


FORTALEZAS 


En entorno Unix hay un foco claro en la reducción de costes, a partir de la utilización más eficiente de las plataformas disponibles. Los principales fabricantes de plataformas Unix están innovando para que sus sistemas aprovechen más eficientemente los recursos ya instalados. Este sistema operativo es Multitarea, Multiusuario y está escrito en lenguaje de alto nivel.


DESVENTAJAS 


  • Carencia de soporte técnico.
  • No ofrece mucha seguridad.
  • Problemas de hardware, no soporta todas las plataformas y no es compatible con algunas marcas específicas.
  • No existe un control de calidad al momento de elaborar software para Linux, pues muchas veces las aplicaciones se hacen y se liberan sin control alguno.
  • Es poco probable que aplicaciones para DOS y OS/2 se ejecuten correctamente bajo Linux.
  • No hay forma segura de instalarlo sin reparticionar el disco duro.
  • El reparticionar el disco duro implica borrar toda la información del mismo y después restablecerlo.
  • Se requiere experiencia y conocimiento del sistema para administrarlo, pues como es un sistema por línea de comandos, estas poseen muchas opciones y en ocasiones es difícil realizar algunas tareas que en otros sistemas operativos de red, son triviales.

CARACTERÍSTICAS


Es un sistema operativo que controla los recursos de una computadora entre los usuarios. Permite a los usuarios correr sus programas. Controla los dispositivos de periféricos conectados a la máquina. Posee las siguientes características:

  • Es un sistema operativo multiusuario, con capacidad de simular multiprocesamiento y procesamiento no interactivo.
  • Está escrito en lenguaje de alto nivel (C)
  • Dispone de un lenguaje de control programable llamado Shell.
  • Ofrece facilidades para la creación de programas y sistemas, el ambiente adecuado para las tareas de diseños de software.
  • Emplea manejo dinámico de memoria por intercambio o paginación.
  • Tiene capacidad de interconexión de procesos.
  • Permite comunicación entre procesos.
  • Emplea un sistema jerárquico de archivos, con facilidades de protección de archivos, cuentas y procesos.
  • Tiene facilidad para redireccionamiento de Entrada/Salida.
  • Garantiza un alto grado de portabilidad.

SEGURIDAD EN UNIX


Parte del hecho de que estamos trabajando con un sistema multiusuario. Es el sistema operativo el que debe controlar que cada usuario realice las tareas que desee sin interferir en ningún tipo por parte a otros usuarios. Por seguridad se entiende que el sistema está libre de todo peligro, daño o riesgo. Podemos protegernos con métodos de prevención utilizando mecanismos de seguridad, controles de acceso, también detectando algún fallo/virus con programas de auditoria, o también con copias de seguridad.





Interfaz en Unix

Logo de Unix








Sistema Operativo

Sistema Operativo


QUE ES UN SISTEMA OPERATIVO


Un sistema operativo es un conjunto de programas que gestiona los recursos del hardware y provee servicios a los programas de aplicación del software. Son especialmente hechos para la ejecución de varias tareas, en la que también cumple la función de intermediación entre el usuario y la computadora. Es el software básico de una computadora que provee de una interfaz entre el resto de programas del ordenador, los dispositivos de hardware y el usuario.



FUNCIÓN DEL SISTEMA OPERATIVO


Las funciones básicas del sistema operativo son administrar los recursos de la máquina, coordinar el hardware y organizar los archivos. y directorios en el dispositivo de almacenamiento. También inicializa el hardware del ordenador, suministra rutinas básicas para controlar dispositivos, permite administrar, escalonar e interactuar tareas y mantiene la integridad del sistema.

Otras funciones son:


  • Gestionar los archivos 
  • Gestionar la información que haya almacenada
  • Gestionar la cantidad de memoria utilizada para la ejecución de aplicaciones, mejor llamada memoria de acceso aleatorio
  • Gestión de periféricos de entrada y de salida
  • Administra la parte de autorizaciones para la ejecución de programas
  • Gestión en la ejecución de programas
  • Manejo de las memorias interna y externa
  • Maneja un sistema de protección y seguridad
  • Controla la gestión de redes y comunicación

EVOLUCIÓN DE LOS SISTEMAS OPERATIVOS


Los sistemas operativos han venido evolucionando a las necesidades de los usuarios a las características del hardware de los computadores ya que los sistemas operativos van íntimamente ligados a la arquitectura de la máquina las cuales se ejecutan.
La historia de los sistemas operativos esta dividida en 5 generaciones las cuales empiezan desde los primeros avances tecnológicos hasta lo que es en la actualidad.



Generación Cero


El tiempo de computación estaba construido con tubos de vacío y toda la programación se realizaba en lenguajes de máquina absoluto, a menudo era necesario hacer conexiones sobre tableros enchufables para controlar las funciones básicas de la máquina. Realmente no se hablaba de sistemas operativos.


Primera Generación  (Década 1950)


El tiempo de computación sobre los ordenadores de la segunda generación eran muy costosos por eso se buscaba formas de reducir el tiempo perdido. La solución que generalmente se adaptaba era el sistema por lotes. La entrada de los programas se hacía mediante tarjetas perforadas y la salida, por impresora. Para hacer posible este funcionamiento existía un programa cargado permanentemente en la memoria llamado monitor de residente que puede ser considerado como el primer sistema operativo, cuyas funciones eran:


  • Identificar e interpretar las tarjetas perforadas de control o de programa.
  • Llevar a cabo el secuenciamiento automático de los trabajos (JOBS) por lotes

Segunda Generación (Hasta la mitad de la década de 1960)


En la década de los 60, para vengar la pérdida de tiempo de CPU que supone la conexión directa del procesador con los periféricos más lentos, se introduce 2 modos de procesamiento distintos:

  • Procesamiento Offline (fuera de línea): En este modo el procesador se comunica directamente con el dispositivo al lector de tarjetas y la impresión.
  • Procesamiento Online (en línea): Consiste en introducir periféricos más rápido (en ésta época, las unidades de cinta) para el almacenamiento temporal de la información (Buffering y Spooling) para liberar al procesador de la infructuosa tarea de intercambiar datos o periféricos lentos. Se desarrollaron sistemas compartidos en los que los usuarios podían acoplarse directamente con el computador a través de terminales. Surgieron sistemas de tiempo real en donde los computadores fueron utilizados en el control de procesos industriales.

Tercera Generación (desde la mitad de la década de los 60 hasta los 70)


A mediados de los 60 se comienza a desarrollar la familia de computadores S/300, que decían diversos modelos. todas ellas con la misma arquitectura y conjunto de instrucciones, que son o diferían al precio y rendimiento. Los programas escritos para una máquina podían ejecutarse en todos los demás. El sistema operativo era idóneo, extraordinariamente complejo, constaba con millones de líneas de lenguaje ensamblador escritas por miles de programadores, que contenían miles de errores ocultos que necesitaban un flujo continuo de versiones en un intento por corregirlos. Cada nueva versión contenía algunos errores, e inducía otros de modo que el número de errores ocultos probablemente se contenía constante durante todo el tiempo.



Cuarta Generación (mitad de la década de los 70 en adelante)


En la década de los 70 se induce el concepto de multiprogramación, consistente en la ejecución por el procesador de varias tareas simultáneamente lo que permite aprovechar mejor los recursos al sistema. También se induce la idea de memoria virtual, que consiste en utilizar dispositivos de almacenamiento masivo como si fuera una parte de la memoria principal.


Para resumir, los sistemas operativos van evolucionando incorporando nuevas funcionalidades en este orden:

  1. Biblioteca de operaciones básicas sobre el hardware
  2. Monitor sencillo (uso de tarjetas en bloques de trabajo)
  3. Proceso fuera de línea (conversión tarjeta a cinta en terminales remotos)
  4. Buffering (uso de buffers como almacenamiento intermedio)
  5. Spooling (uso de colas para la salida a impresora)
  6. Multiprogramación
  7. Sistemas de tiempo completo (Multiusuarios)
  8. Redes de ordenadores
  9. Seguridad