lunes, 20 de febrero de 2012

SEGURIDAD EN CENTROS DE CÓMPUTO


Seguridad es el conjunto de normas preventivas y operativas, con apoyo de procedimientos, programas, sistemas, y equipos de seguridad y protección, orientados a neutralizar, minimizar y controlar los efectos de actos ilícitos o situaciones de emergencia, que afecten y lesionen a las personas o los bienes de esta.

La seguridad en un centro de cómputo no solo se refiere a la protección del hardware, si no también del software. Algunas medidas de seguridad de un centro de cómputo son:
Impartir instrucciones a los asociados o responsables de no suministrar información.
2.- Revisar los planes de seguridad de la organización.
3.- Establecer simples y efectivos sistemas de señales.
4.- Contar con resguardo de la información que se maneja.
5.- Establecer contraseñas para proteger información confidencial y privada.
6.- Evitar introducir alimentos, tales como refrescos, para impedir que puedan derramarse sobre las maquinas.
7.- No fumar.
8.- Cada equipo de cómputo debe contar con un regulador de corriente para evitar problemas o daños en caso de falla eléctrica.
9.- Escanear un disquete antes de introducirlo a la computadora para así evitar infectarlas con algún virus.
En los ultimos años  la seguridad en las redes de computadores se ha tornado en un asunto de primera importancia dado el incremento de prestaciones de las mismas, así¬ como la imparable ola de ataques o violaciones a las barreras de acceso a los sistemas implementados en aquellas. Los "incidentes de seguridad" reportados continúan creciendo cada vez a un ritmo mas acelerado, a la par de la masificacion del Internet y de la complejidad del software desarrollado.
                                                          ;-)   Efectuar un análisis de riesgos :-D

Esto se suele mencionar en la literatura como el primer paso a realizarse cuando se plantea la seguridad en un sistema. La idea es muy sencilla: trazar todos los elementos que conforman nuestro sistema (hardware y software) y observar cuales involucran mas o menos riesgo. Esto desembocara en un plan de seguridad cuyo objetivo es disminuir el riesgo total del sistema, que se puede modelar como la suma de los riesgos de sus componentes:

RIESGO TOTAL = RIESGO(componente 1) + RIESGO(componente 2) ...

El riesgo de cada componente está en función directa a las pérdidas que ocasionara el que este deje de operar, así como en función de cuan vulnerable es dicho componente en este momento.
El riesgo no es fácil de cuantificar, siendo en general un estimador subjetivo. A modo de ejemplo podríamos plantear una formula como la que sigue:

RIESGO(componente) = P * V

Donde P=Perdida, es la perdida en dinero que implicarí¬a la inoperatividad del componente hasta su reparación,
V=vulnerabilidad, es tanto o más subjetiva puesto que no hay una manera segura de establecer para todos los casos si los supuestos mecanismos de protección (del componente) son o no realmente confiables.
embargo, esto realmente estará en función de diversas características del antivirus, como pueden ser: recientes actualizaciones,
En la formula del "riesgo" propuesta arriba, es evidente que los componentes de nuestro sistema con algo valor y alta vulnerabilidad serán de lejos los que presenten mayor riesgo. Sin embargo, en muchos casos no es sencillo disminuir el valor de cierto componente (y por tanto la pérdida en caso de problemas), y tampoco se puede eliminar completamente la vulnerabilidad del mismo (por ejemplo, si esta de cara a Internet.)
:'-( Mantener las cosas simples :'-(

Un sistema complejo es más difícil de asegurar y potencialmente proporciona una mayor cantidad de puertas abiertas a los atacantes. En general, es recomendable intentar dividir el problema mediante la simplificación de la configuración, para así identificar los puntos o rutas de control vulnerables para incrementar la seguridad.
                                                            :-) Seguridad en todos los niveles. :-)

Esto se puede expresar más sencillamente como: no confiar el sistema a un único mecanismo de seguridad.

La información fluye a través de los distintos componentes y/o capas del sistema y son muchas las instancias en las que se puede mejorar su seguridad. La recomendación estipula que utilicemos todas estas instancias a pesar de que en principio puedan parecer redundantes.

                                                             :-D Encriptar tanto como sea posible :-S

La encriptación es un tema complejo pero cuya implementación resulta cada vez más sencilla conforme aparecen mÁs productos. Los cambios del año pasado en la legislación norteamericana con respecto a la exportación de productos que encriptan, son un incentivo claro para que los desarrolladores y vendedores se interesen mÁs en el tema.

En general, los canales de comunicación mÁs vulnerables o de mayor cercaní¬a al público requieren una encriptación "mÁs fuerte", es decir, más difícil de descifrar por los curiosos o atacantes. Cierta información conlleva más riesgo que otra, y por tanto requerirá un nivel de encriptación diferenciado.

Las herramientas capaces de hacer esto son muchas, dependiendo del contexto en que nos encontremos. Por ejemplo, los sistemas DBMS más avanzados incorporan la encriptación como una opción normal para los datos almacenados, generalmente bajo esquemas propietarios.

La tecnología de encriptación de información destinada a pasar a través de la red ha evolucionado bastante, haciéndose popular el termino VPN
para hacer referencia a canales que encriptan la información de un modo más o menos transparente.
                                                           :-D         La seguridad hacia el interior :-)

Algunos reportes han puesto de relieve que en una gran cantidad de casos la mayor amenaza de ataques al sistema no proviene de fuera, sino que parte desde el interior de la organización. Muchos ataques exitosos desde el exterior han necesitado de cierta ayuda inicial activada en el interior de la organización, donde por lo general nadie sospecha de este tipo de prácticas.
Un caso muy común de este tipo de ataque lo constituye el trabajador despedido o castigado que decide tomar venganza. Antes de retirarse definitivamente puede efectuar este tipo de tareas maliciosas e incluso ponerse en combinación con un atacante externo. En ciertos casos la simple introducción intencional de un virus puede acarrear efectos devastadores.

La única manera de reducir el riesgo en estos casos, consiste en planificar el acceso al sistema de modo tal que ningún elemento crítico dependa de una sola persona. Dicho de otro modo, para dañar un sistema, no debe bastar con un único individuo disconforme.
                                                                                    :-) Educar a los usuarios :-D

Una de las mayores ayudas que puede recibir un hacker que intenta infiltrarse en el sistema de una organización consiste en obtener información acerca de Este. En este sentido, las prácticas empleadas por el atacante comprenden muchas veces la interacción encubierta con los usuarios de la organización a los cuales se les extrae (sin que tomen conciencia de esto) una serie de datos útiles para el hacker. El caso más evidente consiste en obtener  como jugando" una contraseña de parte de este incauto.
                                                                           :'-( No confiar (totalmente) en nosotros mismos :-S 

Esto puede sonar extraño, sin embargo lo Único que quiero indicar es la necesidad de que otra persona verifique la seguridad de nuestro sistema. Como se sabe, existen empresas consultoras especializadas en auditar nuestra organización con este fin. Si esta Ultima opción no es posible (por ejemplo, por el costo involucrado) entonces es de rigor solicitar a otro administrador o ingeniero que verifique las medidas que hemos considerado.
En sistemas y redes complejas es muy posible que una sola persona (nosotros) hayamos dejado pasar alguna puerta insegura. Mientras más personas verifiquen nuestro trabajo, habrá más probabilidades de que éste esté
adecuadamente realizado. Esta es la idea que está detrás de mucho software Open Source, siendo el Kernel de Linux el caso más conspicuo.

                                           :-) Ejecutar solo los servicios imprescindibles. :-(

Algunas personas tienen la maní¬a de instalar los sistemas con la mayor cantidad posible de opciones que puedan entrar en el disco duro. Los administradores de sistemas seguros deben ir exactamente en sentido inverso: en un sistema de alto riesgo es de rigor que se ejecute únicamente lo imprescindible. El ejemplo más conocido corresponde a los servicios de red, los cuales muchas veces vienen configurados para estar activos tan pronto como se instala un sistema operativo, creándose automáticamente nuevas oportunidades para los atacantes.

                                                ;-) mantenerse al dia :-S
Esta recomendación cada vez es más crítica. El software, pese a los esfuerzos y la propaganda, continuará teniendo errores y puertas ocultas. Y al parecer la tendencia sigue en aumento con la complejidad del mismo. Esto implica que los vendedores deberán proporcionar parches o versiones mejoradas a sus clientes cada vez que se descubra alguna vulnerabilidad.
Escaneos regulares

Un "scanner" es un programa que intenta indagar acerca de qué servicios proporciona un computador de la red. Una vez que se conocen estos servicios, un atacante puede centrar sus ataques hacia los mismos.
Establecer planes de contingencia y sistemas de respaldo

No existe ninguna garantía de que nuestro sistema sea invulnerable. Más allá de las medidas que podamos adoptar, siempre existirá la posibilidad de ser atacados. Esto nos obliga a tener presentes ciertas medidas de contingencia traducidas preferentemente en políticas de seguridad bien establecidas.
En otras palabras, debemos imaginarnos sucesivamente un conjunto de escenarios de ataques exitosos. ¿Qué hacemos si...

• Sospechamos que un hacker está atacando el firewall
• Sospechamos que ya ha tomado control del firewall
• Comprobamos que ya ha tomado control del firewall
• Sospechamos que el servidor de base de datos ha sido alterado
• Descubrimos que las PCs Windows han sido infectadas con un virus

                                                     :-)           Vigilancia :-)

La vigilancia del buen funcionamiento del sistema es un asunto más complicado de lo que parece. El problema es que los ataques frecuentemente están disfrazados de conexiones mÁs o menos válidas, y por otro lado, los sistemas de cómputo normalmente no avisan cuando son alterados, a no ser que esto se haya establecido de antemano. Los ataques generalmente tratan de aparentar que no ha ocurrido nada, a fin de conseguir hacer más y más modificaciones sin ser detectados y detenidos.

                                                                      :-S Establecimiento de políticas :-D

Para terminar, una recomendación que en cierto modo engloba a todas las anteriores. El establecimiento de políticas corresponde a un mecanismo que permite asegurar que la seguridad se mantenga en todas las situaciones y se deriva del "compromiso con la seguridad" de la organización. La idea detrás de todo esto es que nadie puede saber de antemano lo que piensa el administrador o el encargado de la seguridad sin ser informado. Muchas organizaciones no tienen esto en cuenta y se da el caso en que un gerente se limita a reunir a los empleados y decirles "no hagan nada que pueda atentar contra la seguridad de la organización, o serán castigados ..." El problema es que la gente normalmente no piensa en términos de seguridad sino en términos de cumplimiento de obligaciones y logro de resultados, y el camino más corto no siempre es el más seguro.

                                      :-D    SEGURIDAD EN LAS INSTALACIONES :-S

Factores que pueden influir en la determinación y acondicionamiento del lugar:

• Corriente eléctrica confiable
• Comunicación confiable
• Vía rápida de acceso
• Evitar zonas con incidencia de desastres naturales
• Evitar zonas propensas a disturbios sociales
• Cercanía de Policía y Bomberos
• Rentas atractivas
• Minimizar el efecto de lluvias
• Evitar la proximidad de aeropuertos
• Evitar Interferencia electromagnética
• Estacionamiento
• Espacio adecuado para planta eléctrica de respaldo
• Aire acondicionado
• Puertas y pasillos amplios
• Lejanía de inflamables y explosivos
• Área para visitas
• Área de comida y Sanitarios
• No más allá de un sexto piso
• Preparación del lugar de ubicación del centro de procesamiento de datos
• Preparación del plano de distribución
• Cercanía del personal a recursos (consumibles, archivos, equipo,...) de uso frecuente.
• Áreas de almacenamiento/recepción adecuadas: de consumibles (papel, cintas, disquetes), de equipo, de material de desecho
• Dos salidas en cada área que contenga personal

sistema operativo


Un sistema operativo (SO) es un programa o conjunto de programas que en un sistema informático gestiona los recursos de hardware y provee servicios a los programas de aplicación, y corre en modo privilegiado respecto de los restantes.1
Nótese que es un error común muy extendido denominar al conjunto completo de herramientas sistema operativo, es decir, la inclusión en el mismo término de programas como el explorador de ficheros, el navegador web y todo tipo de herramientas que permiten la interacción con el sistema operativo, también llamado núcleo o kernel. Esta identidad entre kernel y sistema operativo es solo cierta si el núcleo es monolítico. Otro ejemplo para comprender esta diferencia se encuentra en la plataforma Amiga, donde el entorno gráfico de usuario se distribuía por separado, de modo que, también podía reemplazarse por otro, como era el caso de directory Opus o incluso manejarlo arrancando con unalínea de comandos y el sistema gráfico. De este modo, al arrancar un Amiga, comenzaba a funcionar con el propio sistema operativo que llevaba incluido en una ROM, por lo que era cuestión del usuario decidir si necesitaba un entorno gráfico para manejar el sistema operativo o simplemente otra aplicación. Uno de los más prominentes ejemplos de esta diferencia, es el núcleo Linux, usado en las llamadasdistribuciones Linux, ya que al estar también basadas en Unix, proporcionan un sistema de funcionamiento similar. Este error de precisión, se debe a la modernización de la informática llevada a cabo a finales de los 80, cuando la filosofía de estructura básica de funcionamiento de los grandes computadores2 se rediseñó a fin de llevarla a los hogares y facilitar su uso, cambiando el concepto de computador multiusuario, (muchos usuarios al mismo tiempo) por un sistema monousuario (únicamente un usuario al mismo tiempo) más sencillo de gestionar.3(Véase AmigaOSbeOS o MacOS como los pioneros4 de dicha modernización, cuando los Amiga fueron bautizados con el sobrenombre deVideo Toasters5 por su capacidad para la Edición de vídeo en entorno multitarea round robin, con gestión de miles de colores e interfaces intuitivos para diseño en 3D.
Uno de los propósitos del sistema operativo que gestiona el núcleo intermediario consiste en gestionar los recursos de localización y protección de acceso del hardware, hecho que alivia a los programadores de aplicaciones de tener que tratar con estos detalles. La mayoría de aparatos electrónicos que utilizan microprocesadores para funcionar, llevan incorporado un sistema operativo. (teléfonos móviles,reproductores de DVD, computadoras, radios, enrutadores, etc). En cuyo caso, son manejados mediante una Interfaz Gráfica de Usuario, ungestor de ventanas o un entorno de escritorio, si es un celular, mediante una consola o control remoto si es un DVD y, mediante una línea de comandos o navegador web si es un enrutador.
Archivo:Operating system placement-es.svg

La década de 1940

A finales de la década de 1940, con lo que se podría considerar la aparición de la primera generación de computadoras, se accedía directamente a la consola de la computadora desde la cual se actuaba sobre una serie de micro interruptores que permitían introducir directamente el programa en la memoria de la computadora (en realidad al existir tan pocas computadoras todos podrían considerarse prototipos y cada constructor lo hacía sin seguir ningún criterio predeterminado). Por aquel entonces no existían los sistemas operativos, y losprogramadores debían interactuar con el hardware del computador sin ayuda externa. Esto hacía que el tiempo de preparación para realizar una tarea fuera considerable. Además para poder utilizar la computadora debía hacerse por turnos. Para ello, en muchas instalaciones, se rellenaba un formulario de reserva en el que se indicaba el tiempo que el programador necesitaba para realizar su trabajo. En aquel entonces las computadoras eran máquinas muy costosas lo que hacía que estuvieran muy solicitadas y que sólo pudieran utilizarse en periodos breves de tiempo. Todo se hacia en lenguaje de máquina.

[editar]La década de 1950

A principios de los años 50 con el objeto de facilitar la interacción entre persona y computadora, los sistemas operativos hacen una aparición discreta y bastante simple, con conceptos tales como el monitor residente, el proceso por lotes y el almacenamiento temporal.

[editar]Monitor residente

Su funcionamiento era bastante simple, se limitaba a cargar los programas a memoria, leyéndolos de una cinta o de tarjetas perforadas, y ejecutarlos. El problema era encontrar una forma de optimizar el tiempo entre la retirada de un trabajo y el montaje del siguiente.

[editar]Procesamiento por lotes

Como solución para optimizar , en una misma cinta o conjunto de tarjetas, se cargaban varios programas, de forma que se ejecutaran uno a continuación de otro sin perder apenas tiempo en la transición.

[editar]Almacenamiento temporal

Su objetivo era disminuir el tiempo de carga de los programas, haciendo simultánea la carga del programa o la salida de datos con la ejecución de la siguiente tarea. Para ello se utilizaban dos técnicas, el buffering y el spooling.

[editar]La década de 1960

En los años 60 se produjeron cambios notorios en varios campos de la informática, con la aparición del circuito integrado la mayoría orientados a seguir incrementando el potencial de los ordenadores. Para ello se utilizaban técnicas de lo más diversas.

[editar]Multiprogramación

En un sistema multiprogramado la memoria principal alberga a más de un programa de usuario. La CPU ejecuta instrucciones de un programa, cuando el que se encuentra en ejecución realiza una operación de E/S; en lugar de esperar a que termine la operación de E/S, se pasa a ejecutar otro programa. Si éste realiza, a su vez, otra operación de E/S, se mandan las órdenes oportunas al controlador, y pasa a ejecutarse otro. De esta forma es posible, teniendo almacenado un conjunto adecuado de tareas en cada momento, utilizar de manera óptima los recursos disponibles.

[editar]Tiempo compartido

Artículo principal: Tiempo compartido
En este punto tenemos un sistema que hace buen uso de la electrónica disponible, pero adolece la falta de interactividad; para conseguirla debe convertirse en un sistema multiusuario, en el cual existen varios usuarios con un terminal en línea, utilizando el modo de operación de tiempo compartido. En estos sistemas los programas de los distintos usuarios residen en memoria. Al realizar una operación de E/S los programas ceden la CPU a otro programa, al igual que en la multiprogramación. Pero, a diferencia de ésta, cuando un programa lleva cierto tiempo ejecutándose el sistema operativo lo detiene para que se ejecute otra aplicación.

[editar]Tiempo real

Estos sistemas se usan en entornos donde se deben aceptar y procesar en tiempos muy breves un gran número de sucesos, en su mayoría externos al ordenador. Si el sistema no respeta las restricciones de tiempo en las que las operaciones deben entregar su resultado se dice que ha fallado. El tiempo de respuesta a su vez debe servir para resolver el problema o hecho planteado. El procesamiento de archivos se hace de una forma continua, pues se procesa el archivo antes de que entre el siguiente, sus primeros usos fueron y siguen siendo en telecomunicaciones.

[editar]Multiprocesador

Diseño que no se encuentran en ordenadores monoprocesador. Estos problemas derivan del hecho de que dos programas pueden ejecutarse simultáneamente y, potencialmente, pueden interferirse entre sí. Concretamente, en lo que se refiere a las lecturas y escrituras en memoria. Existen dos arquitecturas que resuelven estos problemas:
La arquitectura NUMA, donde cada procesador tiene acceso y control exclusivo a una parte de la memoria. La arquitectura SMP, donde todos los procesadores comparten toda lamemoria. Esta última debe lidiar con el problema de la coherencia de caché. Cada microprocesador cuenta con su propia memoria cache local. De manera que cuando un microprocesador escribe en una dirección de memoria, lo hace únicamente sobre su copia local en caché. Si otro microprocesador tiene almacenada la misma dirección de memoria en su caché, resultará que trabaja con una copia obsoleta del dato almacenado.
Para que un multiprocesador opere correctamente necesita un sistema operativo especialmente diseñado para ello. La mayoría de los sistemas operativos actuales poseen esta capacidad.

[editar]Sistemas operativos desarrollados

Además del Atlas Supervisor y el OS/360, los años 70 marcaron el inicio de UNIX, a mediados de los 60 aparece Multics, sistema operativo multiusuario - multitarea desarrollado por los laboratorios Bell de AT&T y Unix, convirtiéndolo en uno de los pocos SO escritos en un lenguaje de alto nivel. En el campo de la programación lógica se dio a luz la primera implementación de Prolog, y en la revolucionaria orientación a objetosSmalltalk.

[editar]Inconvenientes de los Sistemas operativos

Se trataba de sistemas grandes, complejos y costosos, pues antes no se había construido nada similar y muchos de los proyectos desarrollados terminaron con costos muy por encima del presupuesto y mucho después de lo que se marcaba como fecha de finalización. Además, aunque formaban una capa entre el hardware y el usuario, éste debía conocer un complejo lenguaje de control para realizar sus trabajos. Otro de los inconvenientes es el gran consumo de recursos que ocasionaban, debido a los grandes espacios de memoria principal y secundaria ocupados, así como el tiempo de procesador consumido. Es por esto que se intentó hacer hincapié en mejorar las técnicas ya existentes de multiprogramación y tiempo compartido.

redes locales


AN» redirige aquí. Para otras acepciones, véase LAN (desambiguación).
Una red de área localred local o LAN (del inglés local area network) es la interconexión de una o varias computadoras y periféricos. Su extensión está limitada físicamente a un edificio o a un entorno de 200 metros, con repetidores podría llegar a la distancia de un campo de 1 kilómetro. Su aplicación más extendida es la interconexión de computadoras personales y estaciones de trabajo en oficinas, fábricas, etc.

Red de área local.
El término red local incluye tanto el hardware como el software necesario para la interconexión de los distintos dispositivos y el tratamiento de la información.
El aumento de la demanda y utilización de computadoras en universidades y laboratorios de investigación en la década de 1960 generó la necesidad de proveer interconexiones de alta velocidad entre los sistemas de computadoras. Un reporte en 1970 de Lawrence Radiation Laboratory detallaba el crecimiento de su red "Octopus"1 2 dando una idea de lo desarrollado.
Cambridge Ring fue desarrollada en la Universidad de Cambridge en 19743 pero nunca fue desarrollada para introducirla en el mercado como un producto comercial satisfactorio.
Ethernet fue desarrollada en Xerox PARC en 1973–1975,4 y patentada como Patente USPTO n.º 4063220. En 1976, después de que el sistema se desarrolló en PARC, Metcalfe yBoggs publicaron el trabajo, "Ethernet: Distributed Packet-Switching For Local Computer Networks."5
ARCNET fue desarrollada por Datapoint Corporation en 1976 y anunciada en 1977.6 La primera instalación comercial se hizo en diciembre de 1977 en Chase Manhattan Bank de Nueva York.7
Las primeras redes fueron de tiempo compartido, las mismas que utilizaban mainframes y terminales conectadas. Con la aparición de Netware surgió una nueva solución, la cual ofrecía: soporte imparcial para los más de cuarenta tipos existentes de tarjetas, cables y sistemas operativos mucho más sofisticados que los que ofrecían la mayoría de los competidores.Netware dominaba el campo de las Lan de las computadoras personales desde antes de su introducción en 1983 hasta mediados de los años 1990, cuando Microsoft introdujo Windows NT Advance Server y Windows for Workgroups.
De todos los competidores de Netware, sólo Banyan VINES tenía poder técnico comparable, pero Banyan ganó una base segura. Microsoft y 3Com trabajaron juntos para crear un sistema operativo de red simple el cual estaba formado por la base de 3Com's 3+Share, el Gestor de redes Lan de Microsoft y el Servidor del IBM. Ninguno de estos proyectos fue muy satisfactorio.
En una empresa suelen existir muchas computadoras, los cuales necesitan de su propia impresora para imprimir informes (redundancia de hardware), los datos almacenados en uno de los equipos es muy probable que sean necesarios en otro de los equipos de la empresa, por lo que será necesario copiarlos en este, pudiéndose producir desfases entre los datos de dos usuarios, la ocupación de los recursos de almacenamiento en disco se multiplican (redundancia de datos), las computadoras que trabajen con los mismos datos deberán de tener los mismos programas para manejar dichos datos (redundancia de software), etc.
La solución a estos problemas se llama red de área local, esta permite compartir bases de datos (se elimina la redundancia de datos), programas (se elimina la redundancia desoftware) y periféricos como puede ser un módem, una tarjeta RDSI, una impresora, etc. (se elimina la redundancia de hardware); poniendo a nuestra disposición otros medios de comunicación como pueden ser el correo electrónico y el Chat. Nos permite realizar un proceso distribuido, es decir, las tareas se pueden repartir en distintos nodos y nos permite la integración de los procesos y datos de cada uno de los usuarios en un sistema de trabajo corporativo. Tener la posibilidad de centralizar información o procedimientos facilita la administración y la gestión de los equipos.
Además una red de área local conlleva un importante ahorro, tanto de tiempo, ya que se logra gestión de la información y del trabajo, como de dinero, ya que no es preciso comprar muchos periféricos, se consume menos papel, y en una conexión a Internet se puede utilizar una única conexión telefónica o de banda ancha compartida por varias computadoras conectadas en red.


martes, 31 de enero de 2012

Historia de la computadora en Guatemala


HISTORIA DE LA COMPUTACIÓN EN GUATEMALA

PIONEROS DE LA COMPUTACIÓN EN GUATEMALA

José Ordóñez: fue el primer programador de computadorasTrabajó como programador en el centro de cálculo del Ministerio de Finanzas en la computadora IBM fue adquirida en 1960.
Ing. Enrique Azmitia; es el fundador de la primera empresa de computación
En 1958 fundó en Guatemala la empresa NCR que permitió al país utilizar las primeras cajas registradoras.
Ing. Pablo Gutiérrez; es el introductor de las minicomputadoras
A mediados de los años 70’s trajo a Guatemala la primera minicomputadora cuyo propósito fué hacer cálculos en el campo de la Ingeniería Civil. Su empresa fué la primera representante de HP fuera de Estados Unidos en Latinoamérica.
Ing. José Massanet; es el fundador del primer bureau de procesamiento de datos
En los años 70, su empresa dió por primera vez servicios de procesamiento de datos a terceros. Esto permitió a muchas empresas iniciar sus procesos computarizados sin contar aún con equipo propio.
Ing. Roberto Solís Hegel Primer director del Centro de Cálculo de la Facultad de Ingeniería de la Universidad de San CarlosGracias a su apoyo, dicha institución contó a mediados de los 70’s por primera vez con el equipo necesario para poder dar el apoyo administrativo a la USAC, así como la posibilidad de ser una herramienta educativa y de investigación para catedráticos y estudiantes.
Fernando Estradé; Fundador de la primera casa de representación de software extranjero
En 1980, dió a los centros de cómputo la posibilidad de adquirir localmente software para bases de datos y herramientas de desarrollo, inicialmente bajo el modelo de redes y más adelante bajo el relacional.
Ing. René Woc; Director de la primera carrera a nivel universitario en el área de Informática
Dada la rapida aceptación de la computación en Guatemala, a principios de la década de los 70’s la Universidad de San Carlos de Guatemala decidió ofrecer la primera carrera de Ingeniería en Sistemas para formar profesionales que pudieran dar impulso a esta tecnología en nuestro país. René Woc, fué el primer director de dicha carrera.
Ing. Luis Furlán; es el impulsador de la integración de Guatemala a InternetFacilitó a los guatemaltecos el servicio de correo electrónico a través de la Universidad Del Valle de Guatemala a principios de los 90’s. Logró que Guatemala contara con un nodo para acceso a Internet.
Son muchas las anécdotas que se recuerdan de la época en que comenzó la carrera de Bachillerato en Computación. El Colegio Suizo Americano como pionero y creador de esta carrera siempre se ha mantenido a la vanguardia en cuanto a tecnología al servicio de la educación se refiere. Recordemos que cuando esta carrera se inició aún no se generalizaba el uso de la computadora en el hogar.
La capacidad y el costo de las primeras computadoras era muy distinto al actual. Así que en los primeros años se contaba con poco equipo y nadie tenía una computadora en su casa por lo que los turnos para usar las computadoras eran muy escasos así que los programas debían revisarse bien antes de que el alumno fuera a probarlo a una computadora.
Para entender mejor este artículo recordemos como se mide la capacidad de almacenamiento de una computadora. Un carácter (una letra o símbolo) se guarda en un byte; 1024 bytes hacen un 1KB, 1024KB hacen 1MB y 1024MB hacen 1GB. Así 1MB = 1,048,576 bytes, mientras que un 1GB es 1,073,741,824 bytes.
Actualmente la capacidad mínima que se puede comprar de equipo es:
  • Almacenamiento Primario (Memoria RAM; para Trabajar): 128MB
  • Almacenamiento Secundario (Disco Duro CD; Para grabar): 40GB
La velocidad de procesamiento no puede compararse en MHz debido a que las tecnologías son muy distintas en lugar de ello debe usarse MIPs (Millones de Instrucciones por segundo). Actualmente un procesador Pentium IV hace arriba de las 2,000 MIPs.

La primera computadora

En 1981 cuando nace el Bachillerato en Computación se adquirió una computadora marca HEATHKIT, la cual fue de las primeras computadoras puestas al servicio de la Educación en Guatemala. Esta computadora contaba con:
Terminales marca Zenith. 32KB de Memoria RAM, Unidad externa (auxiliar) de 2 Floppy disks de 8 pulgadas (con capacidad de 256kb c/u). No tenía disco duro. Utilizaba un procesador PDP-11 (LSI-11) de 2.5Mhz con una velocidad de 0.02 MIPS.
Aunque se suponía que esta computadora permitiría que 4 usuarios la trabajaran simultáneamente el proveedor nunca pudo instalar esta configuración por lo que solamente se disponía de una terminal de trabajo para más de 40 estudiantes. Los turnos para utilizarla se asignaban hasta las 9:00 pm.
Esta máquina ocupa junto con su unidad de disquetes la mitad de un escritorio y el resto la terminal.

La Segunda

En 1983 se inscribió la 2ª y 3ª promoción de Bachilleres en Computación lo que elevó el número de usuarios a casi los 100. Entonces se adquirió una computadora marca AlphaMicro Modelo 100. Esta Mini computadora contaba con un sistema operativo Multiusuarios que permitía que 6 personas la utilizaran simultáneamente. Contaba con 256KB de memoria RAM (¼ MB) y una unidad de disco externa de 10 MB (ocupa el tamaño de un archivo robot), esta unidad tenía 2 discos (5MBc/u de 15”) y uno era removible.
Como el disco era fijo y no contaba con disquetera los alumnos tenían que dejar en ella guardados sus trabajos. Para hacer copias de seguridad (backups) había que copiar el disco que se quería resguardar primero sobre el fijo donde estaba el sistema operativo (El cual había que resguardar primero). Esto hacía que esta actividad fuera muy riesgosa ya que si se cometía un error se corría el riesgo de perder el sistema operativo y volver la máquina inoperante.
En esta computadora se desarrolló (por personal del Colegio) la primera versión del sistema de control académico (SICCA), sistema de cuentas corrientes (SISCO), lo cual hizo de nuestro Colegio de los primeros en tener sistemas computarizados para sus controles.
También esta máquina se utilizó en la Mañana Deportiva como “Centro de Juegos Electrónicos”, lo interesante de esta actividad fue que como no tenía juegos los alumnos tuvieron que programar todos los juegos que se usaron. Estos fueron juegos muy sencillos ya que no tenía capacidad de gráficas, ni sonido, ni colores pero en aquel tiempo empezaban a aparecer los video-juegos.
Contaba con un procesador WD-16 (Wester Digital) el cual es simplemente una versión del PDP-11 o sea que permitía los mismos 0.02 Mips y 2.5Mhz
Ocupaba el espacio de un archivo de 4 gavetas; necesitaba ambiente controlado en cuanto a temperatura y humedad por lo que se colocó en un cuarto con aire acondicionado.
En ella los alumnos aprendieron a programar usando el Lenguaje AlphaBASIC, y AlphaPascal, la versión de pascal era especial ya que compilaba a 11 líneas por minuto y alentaba la máquina, así que todos se enojaban con quien se ponía a compilar su programa, quien tenía suficiente tiempo para ir a refaccionar a la cafetería y regresar antes de que la compilación de su programa terminara.

La Tercera

Al pasar los años la capacidad de esta máquina fue siendo insuficiente por lo que se cambió por un modelo mejor la AM100 se dio como parte del pago de una AM-1000 también AlphaMicro. Esta computadora fue un gran salto ya que contaba con 1.5Mb de memoria RAM (El triple de la anterior) y un Disco Duro Interno de 80MB (8 veces más); también el número de usuarios simultáneos se mejoró. Ahora 16 usuarios podían utilizar simultáneamente la computadora. Desafortunadamente solamente teníamos 8 terminales.
Utilizaba un procesador Motorola 68000 cuya velocidad aproximada es de 2 MIPS a 8Mhz ahora ya se podía compilar un programa en pascal a 11 líneas por segundo. Esta computadora nos dio un gran respiro ya que satisfacía la demanda de procesamiento de aquella época tanto para las operaciones administrativas como las académicas.

Computadoras Personales

A mediados de los años 80 comenzó a aparecer las computadoras personales y el Colegio se apresuró a adquirir algunas Commodore 64, estas máquinas fueron de las primeras en madurar lo suficiente para dejar de ser consideradas juguetes, utilizaban disquete de 5¼ para almacenamiento secundario con capacidad de 180KB y que sólo un lado de los disquetes podía usarse, tenían 64KB de memoria RAM y usaban un televisor como monitor y ya tenían capacidad de colores y sonido.
Al hacerse evidente su potencial educativo se formó el primer Laboratorio de Computadoras y comenzó a utilizarse la computadora como herramienta de enseñanza, algo en lo que también fuimos pioneros, ya no sólo para enseñar propiamente computación. Se introdujeron algunos programas educativos.
Esta computadora tiene un procesador 6510A con velocidad de procesamiento de 0.023 MIPS a 1.2Mhz.
Se adquirió también para 2 de estas máquinas un cartucho que permitía correr el sistema operativo CP/M y se consiguió una copia del RM-COBOL, al fin los alumnos podían probar sus programas escritos en este lenguaje. Este cartucho era en si otra computadora ya que contenía un CPU (Procesador) Z80 con 0.05 MIPS a 4Mhz.
Pronto los alumnos descubren que pueden usar el otro lado del disquette haciendo un corte del lado opuesto e insertándolo en la disquetera boca abajo.
También se probó con unas Commodore 128 pero estas máquinas no resultaron tan buenas como se esperaba su única característica que las hacia útiles era su compatibilidad al 100% con la C64, como fue muy difícil conseguir programas para ella los alumnos que les tocaba usar una la encendían e inmediatamente tecleaban GO 64.

El Toam

Las aplicaciones de la computación como herramienta en la enseñanza de aquel entonces estaban en sus inicios así que se pensó en un sistema que llenara los requisitos necesarios y encontramos el TOAM el cual era un sistema de enseñanza asistida por computadora desarrollado en Israel por una empresa llamada DEGEM SYSTEM, este contaba con 20 terminales y paquetes para ejercitar Matemática, Inglés y enseñar Mecanografía.
El TOAM era una computadora basada en el Procesador PDP-11/70 tenía varios sistemas operativos, tales como UNIX, RTST-11, durante varios años nuestros alumnos aprovecharon el TOAM para practicar sus conocimientos, también se enseñó logo usando este sistema. Este sistema estaba 100% diseñado para usarse en ambientes educativos, las terminales usaban poco voltaje y las teclas eran más resistentes de lo normal.
Lamentablemente no se tenía un buen respaldo técnico en Guatemala para este equipo y dejó de funcionar sin encontrar quien pudiera repararlo.
Compatibles con IBM
Aparecen las Computadoras personales compatibles con la IBM-PC, el Colegio Suizo Americano compra 10 de la segunda generación (XT), éstas tenían 2 unidades de disquete de 360Kb c/u. No tenían disco duro por lo que cada alumno tenía que llevar en disquetes los programas que necesitaba (incluyendo el sistema operativo MS-DOS). Monitor monocromático (solo un color).
Tenían un procesador 8086 con dos velocidades 4.77 y 8 Mhz (0.25 y 0.5 MIPS respectivamente).
Se escribió un programa para emular terminales y así completamos las que nos faltaban la AlphaMicro trabajaba a toda su capacidad usando estas PC’s como terminal.
Aparece en escena el TurboPascal, una versión para DOS y PC que podía compilar mas de 2000 líneas por segundo por lo que las PC’s encontraron su lugar. Se hizo necesario hacer un laboratorio con las PC’s así se adquirieron unas marca Compuadd también con procesador 8086 y otras marca Amstrad.
Fuimos pioneros también en instalar nuestras computadoras en red. Se compró una red de tecnología Lantastic y se colocó todas las PC’s en RED. Esta red usaba tecnología propietaria utilizando cable coaxial a 2Mb/s (Mega bits por segundo; 8bit = 1 Byte)
Llegó el momento de renovar la AlphaMicro y se decidió cambiar la plataforma a UNIX y reescribir todo el sistema de AlphaBasic a INFORMIX.
Cuando se inauguró el Edificio Internaciones y se trasladó el Laboratorio al 3er nivel de éste, se renovó el equipo del Laboratorio de PC’s cambiándose éstas por máquinas que pudieran correr Windows 95, la red pasó de ser Lantastic a una red basada en Windows’95. Cuando tocó decidirse por el protocolo de red que utilizaríamos, nos quedamos con TCP/IP el que usa Internet, esto fue varios años antes que Internet viniera a Guatemala (Mediados de los 90) para poder interconectar nuestras PC’s con nuestro Sistema Computarizado que estaba en UNIX.
Muchas renovaciones mas vinieron, pasamos de las 386 a las 486, de las 486 a la Pentium de 100Mhz, luego a 800Mhz. Conectarnos a Internet fue fácil ya que la infraestructura estaba lista gracias a tener TCP/IP instalado.
Hasta el día de hoy que contamos con 3 laboratorios (el Rojo y el Azul en Secundaria y el Amarillo en Primaria).
Con el traslado a nuestro nuevo campus en Acatán hemos renovado nuevamente nuestro equipo ahora con tecnología HP / Compaq las máquinas que utilizan los alumnos son de 2.4 Mhz y hasta tenemos un laboratorio con monitores FlatPanel (Pantalla Plana) Siempre en la vanguardia de la Tecnología.
Nuestro servidor de Internet también fue actualizado actualmente esta en una máquina Pentium IV de 3.0Ghz (4000MIPS) con Sistema Operativo Windows 2003 Server, Disco Duro de 36GB y 512MB de Ram.
La innovación tecnológica siempre ha estado presente en el Colegio Suizo Americano hemos pasado de mimeógrafo a la fotocopiadora, hasta una moderna duplicadora capaz de sacar mas de 100 copias por minuto.
En la parte de comunicaciones también se ha estado innovando desde un conmutador telefónico (donde cada extensión tenía un botón para las otras extensiones), luego se adquirió una planta telefónica Siemens con capacidad para 32 extensiones. La construcción del edificio Internaciones requirió mejorar la capacidad de la planta telefónica por lo que se cambió por una marca Nitsuko con un máximo de 1024 extensiones.
Ahora en nuestras nuevas instalaciones en Acatán contamos con una moderna central telefónica hibrida que combina varias tecnologías, esta planta es capaz de manejar teléfonos análogos tradicionales, teléfonos digitales, y la novedosa telefonía IP en la cual cada teléfono es en realidad una computadora que se conecta a la red.
Esta tecnología es de un dinamismo sorprendente ya que permite llevar los teléfonos de un punto de red a otro sin necesidad de cambiar el número telefónico o hacer alguna configuración. Al combinar esta tecnología con Internet es posible hacer llegar una extensión de nuestra planta telefónica a cualquier lugar del mundo.
Se ha integrado también teléfonos celulares a nuestro paquete de comunicaciones esto nos permite tener extensiones en los buses y controlar así el desempeño de las rutas y solventar inconvenientes que puedan surgir.
Otra área de comunicaciones en la que se ha sido pionero ha sido INTERNET, habiendo sido de los primeros en conectar nuestro laboratorio a esta gran red, ahora contamos con la posibilidad de conexión en cada aula. Tenemos actualmente contratado un enlace de 512Kb/s y hemos interconectado nuestras tres redes a través de enlaces dedicados.
Esta interconexión nos ha permitido instalar cajas en nuestros tres campus, así como la capacidad de hacer consultas a nuestra base de datos.