COMPUTACION 
Las ciencias de la computación o ciencias computacionales son aquellas que abarcan las 
bases teóricas de la información y la computación, así como su aplicación en sistemas 
computacionales.1 2 3 Existen diversos campos o disciplinas dentro de las ciencias de la 
computación o ciencias computacionales; algunos resaltan los resultados específicos del 
cómputo (como los gráficos por computadora), mientras que otros (como la teoría de la 
complejidad computacional) se relacionan con propiedades de los algoritmos usados al 
realizar cómputos y otros se enfocan en los problemas que requieren la implementación de 
cómputos. Por ejemplo, los estudios de la teoría de lenguajes de programación describen un 
cómputo, mientras que la programación de computadoras aplica lenguajes de programación 
específicos para desarrollar una solución a un problema computacional específico. 
La informática se refiere al tratamiento automatizado de la información de una forma 
útil y oportuna. No se debe confundir el carácter teórico de esta ciencia con otros 
aspectos prácticos como el uso de Internet. 
Según Peter J. Denning, la cuestión fundamental en que se basa la ciencia de la computación 
es: "¿Qué puede ser (eficientemente) automatizado?"4 
Índic 
 1 Historia 
 2 Campos de las ciencias de la computación 
o 2.1 Fundamentos matemáticos 
o 2.2 Teoría de la computación 
o 2.3 Algoritmos y estructuras de datos 
o 2.4 Lenguajes de programación y compiladores 
o 2.5 Bases de datos 
o 2.6 Sistemas concurrentes, paralelos y distribuidos 
o 2.7 Inteligencia artificial 
o 2.8 Gráficos por computador 
o 2.9 Computación científica 
 3 Relación con otros campos 
 4 Véase también 
 5 Referencias 
 6 Bibliografía 
 7 Enlaces externos 
Historia[editar] 
La historia de la ciencia de la computación antecede a la invención del computador digital 
moderno. Antes de la década de 1920, el término computador se refería a un ser humano 
que realizaba cálculos.5 Los primeros investigadores en lo que después se convertiría las 
ciencias de la computación estaban interesados en la cuestión de la computabilidad: qué 
cosas pueden ser computadas por un ser humano que simplemente siga una lista de 
instrucciones con lápiz y papel, durante el tiempo que sea necesario, con ingenuidad y sin 
conocimiento previo del problema. Parte de la motivación para este trabajo era el
desarrollar máquinas que computaran y que pudieran automatizar el tedioso y falible 
trabajo de la computación humana. 
Durante la década de 1940, conforme se desarrollaban nuevas y más poderosas máquinas 
para computar, el término computador se comenzó a utilizar para referirse a las máquinas y 
ya no a sus antecesores humanos. Conforme iba quedando claro que las computadoras 
podían usarse para más cosas que solamente cálculos matemáticos, el campo de la ciencia 
de la computación se fue ampliando para estudiar a la computación (informática) en 
general. La ciencia de la computación comenzó entonces a establecerse como una 
disciplina académica en la década de 1960, con la creación de los primeros departamentos 
de ciencia de la computación y los primeros programas de licenciatura (Denning 2000). 
Campos de las ciencias de la computación[editar] 
Fundamentos matemáticos[editar] 
Criptografía 
Consta de algoritmos para proteger datos privados, incluido el cifrado. 
Teoría de grafos 
Recursos elementales para las estructuras de almacenamiento de datos y para los 
algoritmos de búsqueda. 
Lógica matemática 
La lógica matemática estudia los sistemas formales en relación con el modo en el 
que se codifican nociones intuitivas de objetos matemáticos como conjuntos, 
números, demostraciones y computación. 
Teoría de tipos 
Análisis formal de los tipos de datos y el uso de estos para entender las propiedades 
de los programas, en particular la seguridad de estos. 
Teoría de la computación[editar] 
Teoría de la computación 
Teoría de autómatas 
Teoría de la computabilidad 
Teoría de la complejidad computacional 
Límites fundamentales (en especial de espacio en memoria y tiempo) de los 
cómputos. 
Algoritmos y estructuras de datos[editar] 
Análisis de algoritmos 
Algoritmos 
Procesos formales usados para los cómputos, y eficiencia de estos procesos. 
Estructuras de datos 
Organización y manipulación de los datos 
Lógica y computabilidad 
estudio de diferentes tipos de lógicas, su poder expresivo, decidibilidad, 
aplicaciones. 
Especificación
desarrollo de métodos para definir formalmente (matemática y lógicamente) el 
comportamiento esperado de un algoritmo, para luego probar terminación y 
correctitud. 
Lenguajes de programación y compiladores[editar] 
Compiladores 
Formas de traducir programas computacionales, usualmente a partir de lenguajes de 
alto nivel a lenguajes de bajo nivel. 
Teoría de lenguajes de programación 
Lenguajes formales para expresar algoritmos y las propiedades de estos lenguajes. 
Bases de datos[editar] 
Bases de datos 
Estructura de datos 
Minería de datos 
Estudio de algoritmos para buscar y procesar información en documentos y bases de 
datos; muy relacionada con la adquisición de información. 
Sistemas concurrentes, paralelos y distribuidos[editar] 
Programación concurrente 
Teoría y práctica de cómputos simultáneos y computación interactiva. 
Redes de computadoras 
Algoritmos y protocolos para comunicar eficientemente datos a través de largas 
distancias, incluye también la corrección de errores. 
Cómputo paralelo 
Computación con el uso de múltiples computadoras y múltiples procesadores en 
paralelo. 
Sistemas distribuidos 
Sistemas que utilizan múltiples procesadores repartidos en una gran área geográfica. 
Inteligencia artificial[editar] 
Inteligencia artificial (IA) 
La implementación y estudio de sistemas que exhiben (ya sea por su 
comportamiento o aparentemente) una inteligencia autónoma o comportamiento 
propio, a veces inspirado por las características de los seres vivos. Las ciencias de la 
computación están relacionadas con la IA, ya que el software y las computadoras 
son herramientas básicas para su desarrollo y progreso. 
Razonamiento automatizado 
Robótica 
Algoritmos para controlar el comportamiento de los robots. 
Visión por computador 
Algoritmos para extraer objetos tridimensionales de una imagen bidimensional. 
Aprendizaje automático 
Gráficos por computador[editar]
Computación gráfica 
Algoritmos tanto para generar sintéticamente imágenes visuales como para integrar 
o alterar la información visual y espacial tomada del mundo real. 
Procesamiento digital de imágenes 
Por ejemplo, para sensores remotos. 
Geometría computacional 
Por ejemplo, algoritmos veloces para seleccionar solo los puntos visibles en un 
poliedro visto desde cierto ángulo, usado en motores 3D. 
Computación científica[editar] 
Computación científica 
Bioinformática 
Computación cuántica 
Paradigma de computación basado en la mecánica cuántica 
Neurociencia computacional 
Relación con otros campos[editar] 
Por ser una disciplina reciente, existen varias definiciones alternativas para la ciencia de la 
computación. Esta puede ser vista como una forma de ciencia, matemáticas o una nueva 
disciplina que no puede ser categorizada siguiendo los modelos actuales. 
Las ciencias de la computación frecuentemente se cruzan con otras áreas de investigación, 
tales como la física y la lingüística. Pero es con las matemáticas con las que se considera 
que tiene un grado mayor de relación. Eso es evidenciado por el hecho de que los primeros 
trabajos en el área fueran fuertemente influenciados por matemáticos como Kurt Gödel y 
Alan Turing. En la actualidad sigue habiendo un intercambio de ideas útil entre ambos 
campos en áreas como la lógica matemática, la teoría de categorías, la teoría de dominios, 
el álgebra y la geometría. 
Otro punto a destacar es que, a pesar de su nombre, las ciencias de la computación 
raramente involucran el estudio mismo de las máquinas conocidas como computadoras. De 
hecho, el renombrado científico Edsger Dijkstra es muy citado por la frase "Las ciencias de 
la computación están tan poco relacionadas con las computadoras como la astronomía con 
los telescopios." 
Debido a esto, se propuso buscar un nombre definido para esta ciencia emergente, que 
evitara la relación con las computadoras. 
Una primera propuesta fue la de Peter Naur, que acuñó el término datología, para reflejar el 
hecho de que la nueva disciplina se ocupaba fundamentalmente del tratamiento de los 
datos, independientemente de las herramientas de dicho tratamiento, fueran computadoras o 
artificios matemáticos. La primera institución científica en adoptar la denominación fue el 
Departamento de Datología de la Universidad de Copenhague, fundado en 1969, y fue el 
propio Peter Naur el primer profesor de datología. Esta denominación se utiliza 
principalmente en los países escandinavos. Asimismo, en los primeros momentos, un gran 
número de términos aparecieron asociados a los practicantes de la computación. En esta 
lista se pueden ver los sugeridos en las revistas y comunicados de la Association for
Computer Machinery: turingeniero, turologista, hombre de los diagramas de flujo (flow-charts- 
man), metamatemático aplicado y epistemólogo aplicado. 
Tres meses más tarde se sugirió el término «contólogo», seguido de «hipólogo» al año 
siguiente.[cita requerida] También se sugirió el término «compútica» para la disciplina.[cita 
requerida] «Informática» era, sin embargo, el término más frecuentemente usado en toda 
Europa.[cita requerida] 
El diseño y desarrollo de computadoras y sistemas computacionales generalmente se 
considera un campo reclamado por disciplinas ajenas a las ciencias de la computación. Por 
ejemplo, el estudio del hardware suele considerarse parte de la ingeniería informática, 
mientras que el estudio de sistemas computacionales comerciales y su desarrollo suelen 
denominarse tecnologías de la información (TI) o sistemas de información. Sin embargo, 
hay una estrecha comunicación de ideas entre las distintas disciplinas relacionadas con las 
computadoras. 
La ciencia de la computación a menudo recibe críticas desde otros estamentos que la 
consideran escasamente rigurosa y científica. Esta opinión se plasma en la expresión: "La 
ciencia es a las ciencias de la computación como la hidrodinámica a la fontanería", 
atribuida a Stan Kelly-Bootle y otros afines. 
La investigación en ciencias de la computación también suele relacionarse con otras 
disciplinas, como la ciencia cognitiva, la física (véase computación cuántica), la lingüística, 
etcétera. 
La relación entre las ciencias de la computación y la ingeniería de software es un tema muy 
discutido, por disputas sobre lo que realmente significa el término ingeniería de software y 
sobre cómo se define a las ciencias de la computación. Algunas personas creen que la 
ingeniería de software sería un subconjunto de las ciencias de la computación. Otras, 
tomando en cuenta la relación entre otras disciplinas científicas y de la ingeniería, creen 
que el principal objetivo de las ciencias de la computación sería estudiar las propiedades del 
cómputo en general, mientras que el objetivo de la ingeniería de software sería diseñar 
cómputos específicos para lograr objetivos prácticos, con lo que se convertiría en 
disciplinas diferentes. Este punto de vista es el que sostiene, por ejemplo, Parnas (1998). 
Incluso hay otros que sostienen que no podría existir una ingeniería de software. 
Los aspectos académicos, políticos y de financiamiento en las áreas de ciencias de la 
computación tienden a verse influidos drásticamente por el criterio del departamento 
encargado de la investigación y la educación en cada universidad, que puede estar orientado 
a la matemática o a la ingeniería. 
Los departamentos de ciencias de la computación orientados a la matemática suelen 
alinearse del lado de la computación científica y las aplicaciones de cálculo numérico. 
El término computación científica, que no debe confundirse con ciencia de la computación, 
designa a todas aquellas prácticas destinadas a modelar, plantear experimentos y validar 
teorías científicas sirviéndose de medios computacionales. En estos casos la computación 
es una mera herramienta y el esfuerzo se dirige a avanzar en los campos objetivo (física, 
biología, mecánica de fluidos, radiotransmisión,...), más que en la propia ciencia de la 
computación.
Finalmente, el público en general algunas veces confunde la ciencia de la computación con 
áreas vocacionales que trabajan con computadoras o piensan que trata acerca de su propia 
experiencia con las computadoras, lo cual suele incluir actividades como los juegos, la 
navegación web y el procesamiento de texto. Sin embargo, el punto central de la ciencia de 
la computación va más allá de entender las propiedades de los programas que se emplean 
para implementar aplicaciones de software como juegos y navegadores web, y utiliza ese 
entendimiento para crear nuevos programas o mejorar los existentes.6 
Informática 
De Wikipedia, la enciclopedia libre 
Saltar a: navegación, búsqueda 
La informática es una ciencia que estudia métodos, 
procesos, técnicas, con el fin de almacenar, procesar y 
transmitir información y datos en formato digital. La 
informática se ha desarrollado rápidamente a partir de la 
segunda mitad del siglo XX, con la aparición de 
tecnologías tales como el circuito integrado, Internet y el 
teléfono móvil. 
En 1957 Karl Steinbuch añadió la palabra alemana 
Informatik en la publicación de un documento 
denominado Informatik: Automatische 
Informationsverarbeitung (Informática: procesamiento 
automático de información). En ruso, Alexander 
Ivanovich Mikhailov fue el primero en utilizar informatik con el significado de «estudio, 
organización, y la diseminación de la información científica», que sigue siendo su 
significado en dicha lengua.[cita requerida]. En inglés, la palabra Informatics fue acuñada 
independiente y casi simultáneamente por Walter F. Bauer, en 1962, cuando Bauer cofundó 
la empresa denominada «Informatics General, Inc.». Dicha empresa guardó el nombre y 
persiguió a las universidades que lo utilizaron, forzándolas a utilizar la alternativa computer 
science. La Association for Computing Machinery, la mayor organización de informáticos 
del mundo, se dirigió a Informatics General Inc. para poder utilizar la palabra informatics 
en lugar de computer machinery, pero la empresa se negó. Informatics General Inc. cesó 
sus actividades en 1985, pero para esa época el nombre de computer science estaba 
plenamente arraigado. Actualmente los angloparlantes utilizan el término computer science, 
traducido a veces como «Ciencias de la computación», para designar tanto el estudio 
científico como el aplicado; mientras que designan como information technology (o data 
processing), traducido a veces como «tecnologías de la información», al conjunto de 
tecnologías que permiten el tratamiento y uso automatizado de información. 
Índice 
[ocultar]
 1 Etimología 
 2 Orígenes 
 3 Sistemas de tratamiento de la información 
 4 Véase también 
 5 Referencias 
 6 Enlaces externos 
Etimología 
El vocablo informática proviene del alemán informatik acuñado por Karl Steinbuch en 
1957. Pronto, adaptaciones locales del término aparecieron en francés, italiano, español, 
rumano, portugués y holandés, entre otras lenguas, refiriéndose a la aplicación de las 
computadoras para almacenar y procesar la información. El término es una contracción de 
las palabras information y automatic (información automática). En lo que hoy día 
conocemos como informática confluyen muchas de las técnicas, procesos y máquinas 
(computadoras) que el hombre ha desarrollado a lo largo de la historia para apoyar y 
potenciar su capacidad de memoria, de pensamiento y de comunicación. En el Diccionario 
de la lengua española de la Real Academia Española se define informática como: 
Conjunto de conocimientos científicos y técnicas que hacen posible el tratamiento automático de la 
información por medio de computadoras.1 
Orígenes 
En los inicios del proceso de información, con la informática sólo se facilitaban los trabajos 
repetitivos y monótonos del área administrativa. La automatización de esos procesos trajo 
como consecuencia directa una disminución de los costos y un incremento en la 
productividad. En la informática convergen los fundamentos de las ciencias de la 
computación, la programación y metodologías para el desarrollo de software, la 
arquitectura de computadores, las redes de computadores, la inteligencia artificial y ciertas 
cuestiones relacionadas con la electrónica. Se puede entender por informática a la unión 
sinérgica de todo este conjunto de disciplinas. Esta disciplina se aplica a numerosas y 
variadas áreas del conocimiento o la actividad humana, como por ejemplo: gestión de 
negocios, almacenamiento y consulta de información, monitorización y control de 
procesos, industria, robótica, comunicaciones, control de transportes, investigación, 
desarrollo de juegos, diseño computarizado, aplicaciones / herramientas multimedia, 
medicina, biología, física, química, meteorología, ingeniería, arte, etc. Puede tanto facilitar 
la toma de decisiones a nivel gerencial (en una empresa) como permitir el control de 
procesos críticos. Actualmente es difícil concebir un área que no use, de alguna forma, el 
apoyo de la informática. Ésta puede cubrir un enorme abanico de funciones, que van desde 
las más simples cuestiones domésticas hasta los cálculos científicos más complejos. Entre 
las funciones principales de la informática se cuentan las siguientes: 
 Creación de nuevas especificaciones de trabajo 
 Desarrollo e implementación de sistemas informáticos 
 Sistematización de procesos 
 Optimización de los métodos y sistemas informáticos existentes 
 Facilita la automatización de datos
Sistemas de tratamiento de la información 
Los sistemas computacionales, generalmente implementados como dispositivos 
electrónicos, permiten el procesamiento automático de la información. Conforme a ello, 
los sistemas informáticos deben realizar las siguientes tres tareas básicas: 
 
o Entrada: captación de la información. Normalmente son datos y órdenes 
ingresados por los usuarios a través de cualquier dispositivo de entrada conectado 
a la computadora. 
o Proceso: tratamiento de la información. Se realiza a través de programas y 
aplicaciones diseñadas por programadores que indican de forma secuencial cómo 
resolver un requerimiento. 
o Salida: transmisión de resultados. A través de los dispositivos de salida los usuarios 
pueden visualizar los resultados que surgen del procesamiento de los datos. 
 Sistemas de mando y control, son sistemas basados en la mecánica y motricidad de 
dispositivos que permiten al usuario localizar, dentro de la logística, los elementos que se 
demandan. Están basados en la electricidad, o sea, no en el control del flujo del electrón, 
sino en la continuidad o discontinuidad de una corriente eléctrica, si es alterna o continua 
o si es inducida, contrainducida, en fase o desfase (ver periférico de entrada). 
 Sistemas de archivo, son sistemas que permiten el almacenamiento a largo plazo de 
información que no se demandará por un largo periodo de tiempo. Estos sistemas usan los 
conceptos de biblioteca para localizar la información demandada. 
 Código ASCII, Es un método para la correspondencia de cadenas de bits permitiendo de 
esta forma la comunicación entre dispositivos digitales así como su proceso y 
almacenamiento, en la actualidad todos los sistemas informáticos utilizan el código ASCII 
para representar textos, gráficos, audio e infinidad de información para el control y 
manipulación de dispositivos digitales. 
Los virus informáticos son programas que se introducen en una computadora, sin 
conocimiento del usuario, para ejecutar en él acciones no deseadas. Estas acciones son: 
 Unirse a un programa. 
 Mostrar mensajes o imágenes, generalmente molestas. 
 Ralentizar o bloquear la computadora. 
 Destruir la información almacenada. 
 Reducir el espacio en el disco. 
Los tipos de virus informáticos que existen son: 
 Gusanos: recogiendo información, contraseñas, para enviarla a otro. 
 Bombas lógicas o de tiempo: que se activan cuando sucede algo especial, como puede ser 
una fecha. 
 Troyanos: hace que las computadoras vayan más lentos. 
 Virus falsos: información falsa. 
Estos virus se pueden prevenir:
 Haciendo copias de seguridad. 
 Copias de programas originales. 
 Rechazo de copias de origen dudoso. 
 Uso de contraseñas. 
 Uso de antivirus. 
Sistema 
De Wikipedia, la enciclopedia libre 
Saltar a: navegación, búsqueda 
Para el arte marcial ruso, véase Systema. 
Para otros usos de este término, véase Sistema (desambiguación). 
Un sistema (del latín systēma, proveniente del griego σύστημα) es un objeto complejo 
cuyos componentes se relacionan con al menos algún otro componente; puede ser material 
o conceptual.1 Todos los sistemas tienen composición, estructura y entorno, pero sólo los 
sistemas materiales tienen mecanismo, y sólo algunos sistemas materiales tienen figura 
(forma). Según el sistemismo, todos los objetos son sistemas o componentes de otro 
sistema.2 Por ejemplo, un núcleo atómico es un sistema material físico compuesto de 
protones y neutrones relacionados por la interacción nuclear fuerte; una molécula es un 
sistema material químico compuesto de átomos relacionados por enlaces químicos; una 
célula es un sistema material biológico compuesto de orgánulos relacionados por enlaces 
químicos no-covalentes y rutas metabólicas; una corteza cerebral es un sistema material 
biológico compuesto de neuronas relacionadas por potenciales de acción y 
neurotransmisores; un ejército es un sistema material social y parcialmente artificial 
compuesto de personas y artefactos relacionados por el mando, el abastecimiento, la 
comunicación y la guerra; el anillo de los números enteros es un sistema conceptual 
algebraico compuesto de números positivos, negativos y el cero relacionados por la suma y 
la multiplicación; y una teoría científica es un sistema conceptual lógico compuesto de 
hipótesis, definiciones y teoremas relacionados por la correferencia y la deducción 
(implicación). 
Índice 
[ocultar] 
 1 Sistemas conceptuales 
 2 Sistemas materiales 
o 2.1 Análisis CEEM 
 3 Véase también 
 4 Referencias 
Sistemas conceptuales[editar] 
Un sistema conceptual, sistema formal o sistema ideal es un constructo compuesto por 
conceptos de cuatro diferentes tipos:
1. Individuos, por ejemplo , 
2. Predicados, relatores o atributos, ejemplo : ; 
3. conjuntos, por ejemplo ; y 
4. operadores, por ejemplo (el hamiltoniano cuántico). 
Así, los conceptos no son sistemas conceptuales, sino sólo componentes de sistemas 
conceptuales. Sí son sistemas conceptuales 
1. Los esquemas proposicionales, por ejemplo ; 
2. Las proposiciones, por ejemplo ; 
3. Las estructuras algebraicas, por ejemplo ; y 
4. Los contextos, por ejemplo una teoría. 
Sistemas materiales[editar] 
Artículo principal: Sistema físico 
Un sistema material, sistema concreto o sistema real es una cosa compuesta (por dos o más 
cosas relacionadas) que posee propiedades que no poseen sus componentes, llamadas 
propiedades emergentes; por ejemplo, la tensión superficial es una propiedad emergente 
que poseen los líquidos pero que no poseen sus moléculas componentes. Al ser cosas, los 
sistemas materiales poseen las propiedades de las cosas, como tener energía (e 
intercambiarla), tener historia, yuxtaponerse con otras cosas y ocupar una posición en el 
espacio tiempo. 
El esfuerzo por encontrar leyes generales del comportamiento de los sistemas materiales es 
el que funda la teoría de sistemas y, más en general, el enfoque de la investigación 
científica a la que se alude como sistemismo, sistémica o pensamiento sistémico, en cuyo 
marco se encuentran disciplinas y teorías como la cibernética, la teoría de la información, la 
teoría del caos, la dinámica de sistemas y otras. 
Análisis CEEM[editar] 
El análisis más sencillo del concepto de sistema material es el que incluye los conceptos de 
composición, entorno, estructura y mecanismo (CEEM, por sus siglas). La composición de 
un sistema es el conjunto de sus partes componentes. El entorno o ambiente de un sistema 
es el conjunto de las cosas que actúan sobre los componentes del sistema, o sobre las que 
los componentes del sistema actúan. La estructura interna o endoestructura de un sistema es 
el conjunto de relaciones entre los componentes del sistema. La estructura externa o 
exoestructura de un sistema es el conjunto de relaciones entre los componentes del sistema 
y los elementos de su entorno. La estructura total de un sistema es la unión de su 
exoestructura y su endoestructura. Las relaciones más importantes son los vínculos o 
enlaces, aquellas que afectan a los componentes relacionados; las relaciones 
espaciotemporales no son vínculos. El mecanismo de un sistema es el conjunto de procesos 
internos que lo hacen cambiar algunas propiedades, mientras que conserva otras.
Además, la frontera de un sistema es el conjunto de componentes que están directamente 
vinculados (sin nada interpuesto) con los elementos de su entorno. La frontera de un 
sistema físico puede ser rígida o móvil, permeable o impermeable, conductor térmico 
(adiabática) o no, conductor eléctrico o no, e incluso puede ser aislante de frecuencias de 
audio. Además, algunos sistemas tienen figura (forma); pero no todo sistema con frontera 
tiene necesariamente figura. Si hay algún intercambio de materia entre un sistema físico y 
su entorno a través de su frontera, entonces el sistema es abierto; de lo contrario, el sistema 
es cerrado. Si un sistema cerrado tampoco intercambia energía, entonces el sistema es 
aislado. En rigor, el único sistema aislado es el universo. Si un sistema posee la 
organización necesaria para controlar su propio desarrollo, asegurando la continuidad de su 
composición y estructura (homeostasis) y la de los flujos y transformaciones con que 
funciona (homeorresis) —mientras las perturbaciones producidas desde su entorno no 
superen cierto grado—, entonces el sistema es autopoyético. 
Sistema informático 
De Wikipedia, la enciclopedia libre 
Saltar a: navegación, búsqueda 
Este artículo o sección necesita referencias que aparezcan en una publicación 
acreditada, como revistas especializadas, monografías, prensa diaria o páginas de 
Internet fidedignas. Este aviso fue puesto el 3 de marzo de 2014. 
Puedes añadirlas o avisar al autor principal del artículo en su página de discusión pegando: 
{{subst:Aviso referencias|Sistema informático}} ~~~~ 
Sistema informático. 
Un sistema informático es un sistema que permite almacenar y procesar información; 
como todo sistema, es el conjunto de partes interrelacionadas: en este caso, hardware, 
software y recursos humanos. El hardware incluye computadoras o cualquier tipo de 
dispositivo electrónico inteligente, que consisten en procesadores, memoria, sistemas de
almacenamiento externo, etc. El software incluye al sistema operativo, firmware y 
aplicaciones, siendo especialmente importante los sistemas de gestión de bases de datos. 
Por último el soporte humano incluye al personal técnico que crean y mantienen el sistema 
(analistas, programadores, operarios, etc.) y a los usuarios que lo utilizan. 
Índice 
[ocultar] 
 1 Desarrollo de sistemas informáticos 
 2 Estructura 
 3 Clasificación 
 4 Referencias 
 5 Véase también 
Desarrollo de sistemas informáticos[editar] 
Los sistemas informáticos pasan por diferentes fases en su ciclo de vida, desde la captura de 
requisitos hasta el mantenimiento. En la actualidad se emplean numerosos sistemas 
informáticos en la administración pública. 
Estructura[editar] 
Los sistemas informáticos suelen estructurarse en Subsistemas: 
 Subsistema físico: asociado al hardware. Incluye entre otros elementos la CPU, memoria 
principal, la placa base, periféricos de entrada y salida, etc. 
 Subsistema lógico: asociado al software y la arquitectura. Incluye al sistema operativo, el 
firmware, las aplicaciones y las bases de datos. 
Clasificación[editar] 
Los S.I. pueden clasificarse con base a numerosos criterios. Por supuesto las clasificaciones 
no son estancas y es común encontrar sistemas híbridos que no encajen en una única 
categoría. 
Por su uso pueden ser: 
 De uso general. 
 De uso específico. 
Por el paralelismo de los procesadores, que puede ser: 
 SISD: Single Instruction Single Data 
 SIMD: Single Instruction Multiple Data 
 MIMD: Multiple Instruction Multiple Data 
Por el tipo de ordenador utilizado en el sistema
 Estaciones de trabajo (Workstations) 
 Terminales ligeros (Thin clients) 
 Microordenadores (por ejemplo ordenadores personales) 
 Miniordenadores (servidores pequeños) 
 Macroordenadores (servidores de gran capacidad) 
 Superordenadores 
Por la arquitectura 
 Sistema aislado 
 Arquitectura cliente-servidor 
 Arquitectura de 3 capas 
 Arquitectura de n capas 
 Servidor de aplicaciones 
 Monitor de teleproceso o servidor de transacciones 
 arquitectura de 4 capas 
IBM 
IBM 
De Wikipedia, la enciclopedia libre 
Saltar a: navegación, búsqueda 
Este artículo o sección necesita ser wikificado con un formato acorde a las convenciones 
de estilo. 
Por favor, edítalo para que las cumpla. Mientras tanto, no elimines este aviso puesto el 18 de 
diciembre de 2013. 
También puedes ayudar wikificando otros artículos o cambiando este cartel por uno más 
específico. 
Para otros usos de este término, véase IBM (desambiguación). 
International Business Machines
Acrónimo IBM 
Tipo Sociedad privada (NYSE: IBM), 
Componente del Promedio 
Industrial Dow Jones 
Industria Informática 
Fundación 16 de junio de 1911 
Fundador(es) Thomas J. Watson 
Sede Armonk, Nueva York 
Estados Unidos 
Ámbito Mundial 
Administración Ginni Rometty 
(Administrador, presidente, y director ejecutivo) 
Productos Hardware, software, consultoría 
Ingresos $99.870 millones (2010) 
1 
Beneficio de 
explotación 
$19.273 millones (2010) 
1 
Beneficio neto $14.833 millones (2010) 
1 
Capital social $23.172 millones (2010) 
1 
1 
Empleados 426.751 (2010) 
Sitio web IBM.com
International Business Machines (IBM) (NYSE: IBM) es una empresa multinacional 
estadounidense de tecnología y consultoría con sede en Armonk, Nueva York. IBM fabrica 
y comercializa hardware y software para computadoras, y ofrece servicios de 
infraestructura, alojamiento de Internet, y consultoría en una amplia gama de áreas 
relacionadas con la informática, desde computadoras centrales hasta nanotecnología.2 
La empresa fue fundada en 1911 como Computing Tabulating Recording Corporation, el 
resultado de la fusión de cuatro empresas: Tabulating Machine Company, International 
Time Recording Company, Computing Scale Corporation, y Bundy Manufacturing 
Company.3 4 CTR adoptó el nombre International Business Machines en 1924, utilizando 
un nombre previamente designado a un filial de CTR en Canadá, y posteriormente en 
América del Sur. 
En 2011, la revista Fortune clasificó IBM como la empresa número 18 en los Estados 
Unidos en tamaño,5 y la empresa número 7 en beneficios.6 Globalmente, la empresa fue 
clasificada como la empresa número 31 en tamaño por Forbes en 2011.7 8 Por el número de 
empleados (más de 425.000, quienes se denominan como "IBMers") es la segunda empresa 
más grande del mundo solo superada por Walmart (en más de 200 países, con ocupaciones 
incluyendo científicos, ingenieros, consultores y profesionales de ventas).9 
IBM alberga más patentes que ninguna otra empresa de tecnología de Estados Unidos, y 
tiene nueve laboratorios de investigación.10 Sus empleados han recibido cinco Premios 
Nobel, cuatro Premios Turing, nueve National Medals of Technology y cinco National 
Medals of Science.11 Las invenciones famosas de IBM incluyen el cajero automático, el 
disquete, el disco duro, la banda magnética, el modelo relacional, el Universal Product 
Code, el "financial swap," el sistema de reservas aéreas SABRE, DRAM y el sistema de 
inteligencia artificial Watson. 
Índice 
[ocultar] 
 1 Historia 
o 1.1 1881-1929 
o 1.2 1930-1979 
o 1.3 1980-presente 
 2 Cultura empresarial 
 3 Apéndices 
o 3.1 Absorciones recientes 
o 3.2 Subsidiarias y otras compañías relacionadas 
o 3.3 Lista de gerentes 
 4 Sindicatos en IBM 
 5 Registro ambiental 
 6 Véase también 
 7 Referencias 
 8 Libros relacionados 
 9 Enlaces externos 
Historia[editar]
1881-1929[editar] 
Thomas John Watson, el líder de IBM desde 1914 hasta 1956 
El 16 de junio de 1911, estas tecnologías y sus empresas respectivas12 
1930-1979[editar] 
En 1937, los equipos de tabulación de IBM permitieron que las organizaciones procesaran 
cantidades de datos sin precedentes, con clientes incluyendo el Gobierno federal de los 
Estados Unidos, durante su primer esfuerzo para mantener los registros de empleo para 
26.000.000 de personas según el "Social Security Act,"13 y el Tercer Reich,14 largamente a 
través de su filial alemán, Dehomag. Además, en junio de 1937, Thomas Watson, el 
presidente fundador de la empresa, tuvo un encuentro con Adolf Hitler para discutir con él 
las cuestiones del suministro de equipos, y luego aceptó una distinción que se volvería en 
su contra: una medalla creada para extranjeros "que demostraron ser dignos del Reich 
alemán." Rebosante de esvásticas y águilas, la medalla confirmaba la contribución de IBM 
a la automatización de la Alemania nazi. En 1941, Watson devolvió su medalla, y las 
tecnologías de la empresa pasaron a ser utilizadas para suministros arrendados a Auschwitz 
y otros campos nazis para acomodar a los prisioneros. Durante la Segunda Guerra Mundial, 
IBM produjo armas portátiles, tales como la Carabina M1 y el Fusil Automático Browning. 
En 1944, completó la construcción de la computadora "Automatic Sequence Controlled 
Calculator" ("Calculadora Controlada por Secuencia Automática"), también conocida 
como Harvard Mark I. Mark I, construida para la Armada de los Estados Unidos, fue la 
primera máquina capaz de ejecutar cálculos complejos automáticamente, y estaba basada en 
interruptores electromecánicos. 
En 1952, Thomas J. Watson, Jr. se convirtió en el presidente de la empresa, terminando casi 
40 años de liderazgo de su padre. En 1953, IBM creó el IBM 701, el primer gran 
computador basado en válvulas de vacío, tecnología que substituyó a los interruptores 
electromecánicos. En 1954 introdujo la IBM 650. En 1956, Arthur L. Samuel, del 
laboratorio de IBM en Poughkeepsie, Nueva York, programó un IBM 704 para jugar a las 
damas utilizando un método por el que la máquina podía "aprender" a partir de su propia 
experiencia. Se cree que este es el primer programa de "auto-aprendizaje," una 
demostración del concepto de inteligencia artificial.
En 1957, IBM desarrolló el primer sistema de almacenamiento informático basado en 
disco, llamado el IBM 305 RAMAC, y creó el lenguaje de programación científico 
FORTRAN (FORmula TRANslation). El RAMAC ATOGA es el predecesor de los discos 
duros actuales y estaba formado internamente por cincuenta discos. En 1959, los 
transistores empezaron a substituir a las válvulas de vacío. Uno de los primeros 
computadores de IBM basados en transistores fue el IBM 7090. Antes de esa época, los 
computadores se utilizaron principalmente en centros de investigación y del gobierno, y no 
fueron utilizados regularmente por las empresas. 
A comienzos de los años 1960, IBM comenzó a transformarse en una empresa dedicada 
exclusivamente a la informática, dejando paulatinamente la fabricación de equipos para 
tarjetas perforadas y máquinas de escribir. Estas últimas las empezó a fabricar a mediados 
de los años 1930. 
En 1961, Thomas J. Watson, Jr. fue elegido como presidente de la junta, y Albert Lynn 
Williams se convirtió en presidente de la empresa. IBM comenzó a desarrollar el sistema de 
reservas Sabre (Semi-Automatic Business-Related Environment) para American Airlines. 
Una máquina de escribir, "Selectric," era introducida por IBM el 31 de julio de 1961, y 
acabó siendo muy exitosa. 
En 1963, los empleados y computadores de IBM ayudaron a la NASA cuando estaba 
siguiendo el vuelo orbital de los astronautas del Proyecto Mercury, y un año después la 
empresa trasladó sus operaciones de la ciudad de Nueva York a su sede actual en Armonk. 
La segunda mitad de esa década vio IBM continuando su soporte de exploración espacial, 
al participar en el Programa Gemini en 1965, el vuelo del Saturno IB en 1966 y el primer 
aterrizaje de un ser humano en la Luna en 1969. 
El 7 de abril de 1964, IBM lanzó el System/360, la primera arquitectura de computadores 
que permitía intercambiar los programas y periféricos entre los distintos equipos 
componentes de la arquitectura, al contrario de lo existente anteriormente, cuando cada 
equipo era una caja cerrada incompatible con los demás. La orden de crear esta arquitectura 
partió directamente del gerente de IBM de la época, Thomas J. Watson, Jr. El desarrollo del 
System/360 fue tan costoso que prácticamente llevó a la quiebra a IBM, pero tuvo tal éxito 
al lanzarse al mercado que los nuevos ingresos y el liderazgo que consiguió IBM respecto a 
sus competidores les resarcieron de todos los gastos. 
Fue tal el éxito de IBM de mediados de los años 1960 que provocó que la empresa fuera 
investigada por monopolio. De hecho, tuvo un juicio, que comenzó en 1969, en el que fue 
acusada de intentar monopolizar el mercado de los dispositivos electrónicos de propósito 
general, concretamente el mercado de computadores empresariales. El juicio continuó hasta 
1983 y tuvo gran impacto en las prácticas de la empresa. IBM introduce la Ingeniería en 
Sistemas Computacionales como un cargo laboral en 1969. 
Durante los años 1970, IBM plantea otra definición de Sistemas Computacionales. 
Continuó creando nuevos dispositivos informáticos. En 1971 creó el disco flexible y poco 
después empezó a comercializar predecesores de los actuales lectores de códigos de barras 
y cajeros automáticos. En 1973, el ingeniero George J. Laurer desarrolló el Universal 
Product Code.15
1980-presente[editar] 
Edificio de IBM en Madrid (España), de 1989. 
En 1981, IBM creó el IBM PC, que es el computador personal de más éxito de todos los 
tiempos. Este éxito no era esperado por IBM, que creó el IBM PC de forma rápida y 
comprando componentes de gama baja a otros fabricantes, cosa que no había hecho hasta el 
momento, para que el IBM PC no absorbiera parte del mercado de computadores más 
potentes de IBM. Además, el sistema operativo del IBM PC tampoco fue creado por IBM, 
sino que fue contratado a Microsoft. 
Debido a que no estaba creado desde cero por IBM, poco después comenzaron a aparecer 
equipos compatibles con el IBM PC de otros fabricantes, y Microsoft empezó a crecer al 
vender licencias del sistema operativo del IBM PC a estos otros fabricantes. 
Durante los años 1980, IBM forjó cuatro premios Nobel. En 1991, la empresa formó 
Lexmark cuando vendió sus operaciones de impresoras a la empresa de inversión Clayton 
and Dubilier, Inc.16 17 
El 19 de enero de 1993, IBM anunció unas pérdidas de cerca de 8.000 millones de dólares, 
lo que fue el récord de pérdidas en una empresa de toda la historia de los Estados Unidos. 
Parte de esas pérdidas se deben a que el IBM PC absorbió gran parte del mercado de 
computadores más potentes y a que los fabricantes de computadores compatibles con el 
IBM PC cada vez tenían más cuota de mercado. El gran cambio en IBM se da en 1993, 
cuando Louis V. Gerstner, Jr. se convierte en el primer ejecutivo de alto nivel en la historia 
de IBM que no provenía de sus propias filas. Lou, como se le conoce, había sido CEO en 
empresas de fabricación de alimentos, cigarrillos y tarjetas de crédito, pero jamás de 
empresas de tecnología. A partir de entonces, IBM comenzó a transformarse en una 
empresa de servicios, reduciendo su dependencia económica de la venta de equipos. Esta 
tendencia se incrementó, especialmente desde que en 2002 Samuel J. Palmisano, sucesor de 
Lou, dejara de dirigir la rama de servicios de IBM para convertirse en el nuevo primer 
ejecutivo de la empresa. En 2003, alrededor del 50% de los ingresos de IBM provienen de 
la rama de servicios, mientras que la venta de equipos supone aproximadamente el 30%. 
En octubre de 2002, IBM adquirió PricewaterhouseCoopers, una empresa de servicios 
profesionales, por $3.900.000.000. La empresa de consultoría fue absorbida en IBM Global
Business Services, aumentando el tamaño y las capacidades de la práctica de consultoría de 
IBM.18 
El 10 de diciembre de 2004, IBM terminó las negociaciones encaminadas a vender la 
división para computadoras personales al grupo chino Lenovo por 650 millones de dólares 
en efectivo y 600 millones más en acciones (un 19% de Lenovo). Junto con la división de 
PC, Lenovo consigue alrededor de 10.000 empleados de IBM y el derecho a usar las 
marcas IBM y Thinkpad durante cinco años. En 2009, IBM adquirió la empresa de software 
SPSS Inc., y el mismo año, el programa de supercomputación Blue Gene fue premiado con 
la Medalla Nacional de Tecnología y Innovación por Barack Obama, el Presidente de los 
Estados Unidos. 
En 2011, IBM ganó atención mundial para su programa de inteligencia artificial "Watson," 
que era expuesto en el concurso de televisión Jeopardy!, derrotando a dos campeones 
notables del programa, Ken Jennings y Brad Rutter. 
Los inversores de IBM denunciaron a IBM por la cooperación con la Agencia de Seguridad 
Nacional americana, que ha causado que el precio de las acciones caiga después de las 
revelaciones de espionaje masivo de la NSA, debido a una caída de exportaciones, sobre 
todo a países como China.19 
IBM también ha sido acusada de hacer lobbying por la Cyber Intelligence Sharing and 
Protection Act que permitirá a IBM compartir datos de los clientes con la NSA.19 
Cultura empresarial[editar] 
IBM suele ser descrita como una empresa orientada a las ventas. Tradicionalmente, muchos 
de sus ejecutivos y administradores principales eran elegidos de entre sus vendedores. 
Además, la alta y media administración solía apoyar a los vendedores que estaban en 
proceso de hacer una venta a clientes importantes. 
Con el tiempo la empresa se ha ido volviendo más técnica RN; en 2003, alrededor de 
178.000 de los 320.000 empleados con que cuenta IBM eran parte de la comunidad técnica, 
y de ellos 38.000 estaban relacionados con el software. 
En la actualidad, la cultura empresarial de IBM está siendo un defensor principal en el 
movimiento de código abierto ("open source" en inglés). La empresa también está 
invirtiendo miles de millones de dólares en servicios y software basados en Linux, a través 
del IBM Linux Technology Center, que incluye alrededor de 300 empleados de IBM que 
trabajan en el núcleo Linux.20 IBM también ha lanzado códigos bajo varias licencias de 
código abierto, tales como el framework multiplataforma Eclipse, la licencia International 
Components for Unicode (ICU) y el sistema de gestión de bases de datos relacionales 
Apache Derby, que está basado en el lenguaje de programación Java. Sin embargo, la 
participación de IBM en el movimiento de código abierto ha causado algunos problemas a 
la empresa (véase la disputa sobre la autoría de Linux). 
Apéndices[editar]
Absorciones recientes[editar] 
 Coremetrics y Unica Corporation en 2010 
 SPSS en 2009 
 Cognos y ILOG en 2008 
 Datamirror en 2007 
 Softek en 2007 
 MRO Software en 2006, por $740.000.000 
 ISS en 2006 
 Alphablox en 2004 
 Candle Corp. en 2004 
 Rational Software en 2003, por $2.100.000.000 
 La consultora PricewaterhouseCoopers en 2002, por $3.900.000.000 
 Informix Software (realmente una compra de activos) en 2001, por $1.000.000.000 
 Sequent Computer Systems en 1999, por $810.000.000 
 Tivoli Systems en 1995, por $750.000.000 
 Lotus Development Corporation en 1995, por $3.500.000.000 
Subsidiarias y otras compañías relacionadas[editar] 
 Ingeniería del Software Avanzado (INSA), proyecto empresarial iniciado en 1991 por IBM 
España y Catalana Occidente. 
 Lexmark, compañía creada en 1991 como una empresa externa enfocada a la fabricación 
de impresoras, en 1995 IBM puso a la venta una parte de la compañía mediante la 
colocación de acciones en NYSE, con lo que se desincorpora de IBM. 
 Taligent, compañía creada en 1992 junto con Apple Computer para desarrollar un nuevo 
sistema operativo que trabajara en cualquier arquitectura de hardware. En 1998, la 
compañía fue incorporada a la estructura de IBM y posteriormente disuelta. 
 Hitachi Global Storage Technologies, empresa formada por IBM e Hitachi para manejar las 
tecnologías de almacenamiento de datos de ambas, entre las que se incluyen los discos 
duros y los Microdrives. 
 ScanSoft vende y da soporte a los productos de reconocimiento de voz de IBM bajo la 
marca ViaVoice. También distribuye un producto similar bajo el nombre Dragon Naturally 
Speaking. 
 IBM Global Network fue la división de servicios de Internet de IBM, adquirida en 1999 por 
AT&T. Actualmente se llama AT&T Business Internet. 
 Lenovo es el grupo chino que compró a IBM su división de computadores personales 
desde finales de 2004. 
Lista de gerentes[editar] 
 Thomas John Watson, 1914 - 1956 
 Thomas J. Watson Jr., 1956 - 1971 
 T. Vincent Learson, 1971 - 1973 
 Frank T. Cary, 1973 - 1981 
 John R. Opel, 1981 - 1985 
 John F. Akers, 1985 - 1993 
 Louis V. Gerstner, Jr., 1993 - 2002 
 Samuel J. Palmisano, 2002 - 2011 
 Ginni Rometty, 2012 - actualidad
Sindicatos en IBM[editar] 
IBM lleva adelante una política hostil a la sindicalización en todo el mundo.[cita requerida] A 
pesar de ello fue posible la organización sindical y en muchos países existen sindicatos que 
agrupan a los trabajadores de IBM. En 1984, se formó IWIS21 (IBM Workers International 
Solidarity), que es una coordinadora de la actividad sindical de los trabajadores de IBM 
mundialmente. La última conferencia se realizó en 2007 entre el 26 y 28 de junio en París y 
fue electo como coordinador Lee Conrad de Alliance IBM/CWA de Estados Unidos de 
América. 
Registro ambiental[editar] 
En 2005, IBM fue reconocido como uno de las "20 mejores empresas para trabajadores que 
viajan" por la Agencia de Protección Ambiental de los Estados Unidos. El propósito del 
premio fue para reconocer las empresas en la lista Fortune 500 que proporcionaron a sus 
empleados beneficios excelentes para ayudar en reducir tráfico y contaminación 
atmosférica.22 
Sin embargo, el pueblo de nacimiento de IBM, Endicott, Nueva York, sufrió contaminación 
durante décadas. IBM utilizó líquidos de limpieza en operaciones de montaje de circuito 
impreso por más de dos décadas, y seis derrames y fugas se registraron, incluyendo una 
fuga en 1979 de 4.100 galones de un tanque subterráneo. Estos dejaron atrás los 
compuestos orgánicos volátiles en el suelo y acuífero de la ciudad. Oglioelementos de 
compuestos orgánicos volátiles han sido identificados en el agua potable de Endicott, pero 
los niveles se encuentran dentro de los límites reglamentarios. También, a partir de 1980, 
IBM ha bombeado 78.000 galones de productos químicos, incluido 1,1,1-tricloroetano, 
freón, benceno, y percloroeteno al aire, provocando supuestamente varios casos de cáncer 
entre las gentes. IBM Endicott ha sido identificado por el Departamento de Conservación 
del Medio Ambiente del Estado de Nueva York como la fuente principal de la 
contaminación, aunque restos de los contaminantes de una tintorería local y otros 
contaminantes también han sido encontrados. A pesar de la cantidad de contaminante, los 
funcionarios estatales no pudieron verificar si la contaminación hídrica en Endicott ha 
realmente causado problemas de salud. Según los funcionarios de la ciudad, las pruebas 
demuestran que el agua es segura para beber.23 
Tokio Ohka Kogyo Co., Ltd. (TOK) e IBM están colaborando para establecer nuevos 
métodos de bajo costo para introducir al mercado la próxima generación de productos de 
energía solar, el módulo de células fotoeléctricas llamado CIGS (Copper-Indium-Gallium- 
Selenide). El uso de la tecnología de lámina delgada, como la CIGS, promete reducir el 
costo total de las células solares y además permitir su adopción generalizada.24 25 
IBM está explorando cuatro áreas principales de investigación fotovoltaica: el uso de las 
tecnologías actuales para desarrollar células solares de silicio más baratas y eficientes, el 
desarrollo de nuevos dispositivos fotovoltaicos de lámina delgada, concentradoras de 
energía fotovoltaica y arquitecturas fotovoltaicas de generaciones futuras basadas en tales 
nanoestructuras como puntos cuánticos semiconductores y nanohilos.26
HISTORIA DE LA COMPUTACION 
COMPUTADORA 
Máquina capaz de efectuar una secuencia de operaciones mediante un programa, de tal manera, que se 
realice un procesamiento sobre un conjunto de datos de entrada, obteniéndose otro conjunto de datos de 
salida. 
TIPOS DE COMPUTADORAS 
Se clasifican de acuerdo al principio de operación de Analógicas y Digitales. 
 COMPUTADORA ANALÓGICA 
1. Aprovechando el hecho de que diferentes fenómenos físicos se describen por relaciones matemáticas 
similares (v.g. Exponenciales, Logarítmicas, etc.) pueden entregar la solución muy rápidamente. Pero 
tienen el inconveniente que al cambiar el problema a resolver, hay que realambrar la circuitería (cambiar 
el Hardware). 
 COMPUTADORA DIGITAL 
1. Están basadas en dispositivos biestables, i.e., que sólo pueden tomar uno de dos valores posibles: ‘1’ ó 
‘0’. Tienen como ventaja, el poder ejecutar diferentes programas para diferentes problemas, sin tener que 
la necesidad de modificar físicamente la máquina. 
HISTORIA DE LA COMPUTACIÓN 
Uno de los primeros dispositivos mecánicos para contar fue el ábaco, cuya historia se remonta a las antiguas 
civilizaciones griega y romana. Este dispositivo es muy sencillo, consta de cuentas ensartadas en varillas que 
a su vez están montadas en un marco rectangular. Al desplazar las cuentas sobre varillas, sus posiciones 
representan valores almacenados, y es mediante dichas posiciones que este representa y almacena datos. A 
este dispositivo no se le puede llamar computadora por carecer del elemento fundamental llamado programa. 
Otro de los inventos mecánicos fue la Pascalina inventada por Blaise Pascal (1623 - 1662) de Francia y la de 
Gottfried Wilhelm von Leibniz (1646 - 1716) de Alemania. Con estas máquinas, los datos se representaban 
mediante las posiciones de los engranajes, y los datos se introducían manualmente estableciendo dichas 
posiciones finales de las ruedas, de manera similar a como leemos los números en el cuentakilómetros de un 
automóvil. 
La primera computadora fue la máquina analítica creada por Charles Babbage, profesor matemático de la 
Universidad de Cambridge en el siglo XIX. La idea que tuvo Charles Babbage sobre un computador nació
debido a que la elaboración de las tablas matemáticas era un proceso tedioso y propenso a errores. En 1823 
el gobierno Británico lo apoyo para crear el proyecto de una máquina de diferencias, un dispositivo mecánico 
para efectuar sumas repetidas. 
Mientras tanto Charles Jacquard (francés), fabricante de tejidos, había creado un telar que podía reproducir 
automáticamente patrones de tejidos leyendo la información codificada en patrones de agujeros perforados en 
tarjetas de papel rígido. Al enterarse de este método Babbage abandonó la máquina de diferencias y se 
dedico al proyecto de la máquina analítica que se pudiera programar con tarjetas perforadas para efectuar 
cualquier cálculo con una precisión de 20 dígitos. La tecnología de la época no bastaba para hacer realidad 
sus ideas. 
El mundo no estaba listo, y no lo estaría por cien años más. 
En 1944 se construyó en la Universidad de Harvard, la Mark I, diseñada por un equipo encabezado por 
Howard H. Aiken. Esta máquina no está considerada como computadora electrónica debido a que no era de 
propósito general y su funcionamiento estaba basado en dispositivos electromecánicos llamados relevadores. 
En 1947 se construyó en la Universidad de Pennsylvania la ENIAC (Electronic Numerical Integrator And 
Calculator) que fue la primera computadora electrónica, el equipo de diseño lo encabezaron los ingenieros 
John Mauchly y John Eckert. Esta máquina ocupaba todo un sótano de la Universidad, tenía más de 18 000 
tubos de vacío, consumía 200 KW de energía eléctrica y requería todo un sistema de aire acondicionado, pero 
tenía la capacidad de realizar cinco mil operaciones aritméticas en un segundo. 
El proyecto, auspiciado por el departamento de Defensa de los Estados Unidos, culminó dos años después, 
cuando se integró a ese equipo el ingeniero y matemático húngaro John von Neumann (1903 - 1957). Las 
ideas de von Neumann resultaron tan fundamentales para su desarrollo posterior, que es considerado el 
padre de las computadoras. 
La EDVAC (Electronic Discrete Variable Automatic Computer) fue diseñada por este nuevo equipo. Tenía 
aproximadamente cuatro mil bulbos y usaba un tipo de memoria basado en tubos llenos de mercurio por 
donde circulaban señales eléctricas sujetas a retardos. 
La idea fundamental de von Neumann fue: permitir que en la memoria coexistan datos con instrucciones, para 
que entonces la computadora pueda ser programada en un lenguaje, y no por medio de alambres que 
eléctricamente interconectaban varias secciones de control, como en la ENIAC. 
Todo este desarrollo de las computadoras suele divisarse por generaciones y el criterio que se determinó para 
determinar el cambio de generación no está muy bien definido, pero resulta aparente que deben cumplirse al 
menos los siguientes requisitos: 
 La forma en que están construidas. 
 Forma en que el ser humano se comunica con ellas. 
Primera Generación
En esta generación había una gran desconocimiento de las capacidades de las computadoras, puesto que se 
realizó un estudio en esta época que determinó que con veinte computadoras se saturaría el mercado de los 
Estados Unidos en el campo de procesamiento de datos. 
Esta generación abarco la década de los cincuenta. Y se conoce como la primera generación. Estas máquinas 
tenían las siguientes características: 
 Estas máquinas estaban construidas por medio de tubos de vacío. 
 Eran programadas en lenguaje de máquina. 
En esta generación las máquinas son grandes y costosas (de un costo aproximado de ciento de miles de 
dólares). 
En 1951 aparece la UNIVAC (NIVersAl Computer), fue la primera computadora comercial, que disponía de mil 
palabras de memoria central y podían leer cintas magnéticas, se utilizó para procesar el censo de 1950 en los 
Estados Unidos. 
En las dos primeras generaciones, las unidades de entrada utilizaban tarjetas perforadas, retomadas por 
Herman Hollerith (1860 - 1929), quien además fundó una compañía que con el paso del tiempo se conocería 
como IBM (International Bussines Machines). 
Después se desarrolló por IBM la IBM 701 de la cual se entregaron 18 unidades entre 1953 y 1957. 
Posteriormente, la compañía Remington Rand fabricó el modelo 1103, que competía con la 701 en el campo 
científico, por lo que la IBM desarrollo la 702, la cual presentó problemas en memoria, debido a esto no duró 
en el mercado. 
La computadora más exitosa de la primera generación fue la IBM 650, de la cual se produjeron varios cientos. 
Esta computadora que usaba un esquema de memoria secundaria llamado tambor magnético, que es el 
antecesor de los discos actuales. 
Otros modelos de computadora que se pueden situar en los inicios de la segunda generación son: la UNIVAC 
80 y 90, las IBM 704 y 709, Burroughs 220 y UNIVAC 1105. 
Segunda Generación 
Cerca de la década de 1960, las computadoras seguían evolucionando, se reducía su tamaño y crecía su 
capacidad de procesamiento. También en esta época se empezó a definir la forma de comunicarse con las 
computadoras, que recibía el nombre de programación de sistemas. 
Las características de la segunda generación son las siguientes: 
 Están construidas con circuitos de transistores. 
 Se programan en nuevos lenguajes llamados lenguajes de alto nivel.
En esta generación las computadoras se reducen de tamaño y son de menor costo. Aparecen muchas 
compañías y las computadoras eran bastante avanzadas para su época como la serie 5000 de Burroughs y la 
ATLAS de la Universidad de Manchester. 
Algunas de estas computadoras se programaban con cintas perforadas y otras más por medio de cableado en 
un tablero. Los programas eran hechos a la medida por un equipo de expertos: analistas, diseñadores, 
programadores y operadores que se manejaban como una orquesta para resolver los problemas y cálculos 
solicitados por la administración. El usuario final de la información no tenía contacto directo con las 
computadoras. Esta situación en un principio se produjo en las primeras computadoras personales, pues se 
requería saberlas "programar" (alimentarle instrucciones) para obtener resultados; por lo tanto su uso estaba 
limitado a aquellos audaces pioneros que gustaran de pasar un buen número de horas escribiendo 
instrucciones, "corriendo" el programa resultante y verificando y corrigiendo los errores o bugs que 
aparecieran. Además, para no perder el "programa" resultante había que "guardarlo" (almacenarlo) en una 
grabadora de astte, pues en esa época no había discos flexibles y mucho menos discos duros para las PC; 
este procedimiento podía tomar de 10 a 45 minutos, según el programa. El panorama se modificó totalmente 
con la aparición de las computadoras personales con mejore circuitos, más memoria, unidades de disco 
flexible y sobre todo con la aparición de programas de aplicación general en donde el usuario compra el 
programa y se pone a trabajar. Aparecen los programas procesadores de palabras como el célebre Word Star, 
la impresionante hoja de cálculo (spreadsheet) Visicalc y otros más que de la noche a la mañana cambian la 
imagen de la PC. El sortware empieza a tratar de alcanzar el paso del hardware. Pero aquí aparece un nuevo 
elemento: el usuario. 
El usuario de las computadoras va cambiando y evolucionando con el tiempo. De estar totalmente 
desconectado a ellas en las máquinas grandes pasa la PC a ser pieza clave en el diseño tanto del hardware 
como del software. Aparece el concepto de human interface que es la relación entre el usuario y su 
computadora. Se habla entonces de hardware ergonómico (adaptado a las dimensiones humanas para reducir 
el cansancio), diseños de pantallas antirreflejos y teclados que descansen la muñeca. Con respecto al 
software se inicia una verdadera carrera para encontrar la manera en que el usuario pase menos tiempo 
capacitándose y entrenándose y más tiempo produciendo. Se ponen al alcance programas con menús (listas 
de opciones) que orientan en todo momento al usuario (con el consiguiente aburrimiento de los usuarios 
expertos); otros programas ofrecen toda una artillería de teclas de control y teclas de funciones (atajos) para 
efectuar toda suerte de efectos en el trabajo (con la consiguiente desorientación de los usuarios novatos). Se 
ofrecen un sinnúmero de cursos prometiendo que en pocas semanas hacen de cualquier persona un experto 
en los programas comerciales. Pero el problema "constante" es que ninguna solución para el uso de los 
programas es "constante". Cada nuevo programa requiere aprender nuevos controles, nuevos trucos, nuevos 
menús. Se empieza a sentir que la relación usuario-PC no está acorde con los desarrollos del equipo y de la 
potencia de los programas. Hace falta una relación amistosa entre el usuario y la PC. 
Las computadoras de esta generación fueron: la Philco 212 (esta compañía se retiró del mercado en 1964) y 
la UNIVAC M460, la Control Data Corporation modelo 1604, seguida por la serie 3000, la IBM mejoró la 709 y 
sacó al mercado la 7090, la National Cash Register empezó a producir máquinas para proceso de datos de 
tipo comercial, introdujo el modelo NCR 315. 
La Radio Corporation of America introdujo el modelo 501, que manejaba el lenguajeCOBOL, para procesos 
administrativos y comerciales. Después salió al mercado la RCA 601. 
Tercera generación
Con los progresos de la electrónica y los avances de comunicación con las computadoras en la década de los 
1960, surge la tercera generación de las computadoras. Se inaugura con la IBM 360 en abril de 1964.3 
Las características de esta generación fueron las siguientes: 
 Su fabricación electrónica esta basada en circuitos integrados. 
 Su manejo es por medio de los lenguajes de control de los sistemas operativos. 
La IBM produce la serie 360 con los modelos 20, 22, 30, 40, 50, 65, 67, 75, 85, 90, 195 que utilizaban técnicas 
especiales del procesador, unidades de cinta de nueve canales, paquetes de discos magnéticos y otras 
características que ahora son estándares (no todos los modelos usaban estas técnicas, sino que estaba 
dividido por aplicaciones). 
El sistema operativo de la serie 360, se llamó OS que contaba con varias configuraciones, incluía un conjunto 
de técnicas de manejo de memoria y del procesador que pronto se convirtieron en estándares. 
En 1964 CDC introdujo la serie 6000 con la computadora 6600 que se consideró durante algunos años como 
la más rápida. 
En la década de 1970, la IBM produce la serie 370 (modelos 115, 125, 135, 145, 158, 168). UNIVAC compite 
son los modelos 1108 y 1110, máquinas en gran escala; mientras que CDC produce su serie 7000 con el 
modelo 7600. Estas computadoras se caracterizan por ser muy potentes y veloces. 
A finales de esta década la IBM de su serie 370 produce los modelos 3031, 3033, 4341. Burroughs con su 
serie 6000 produce los modelos 6500 y 6700 de avanzado diseño, que se reemplazaron por su serie 7000. 
Honey - Well participa con su computadora DPS con varios modelos. 
A mediados de la década de 1970, aparecen en el mercado las computadoras de tamaño mediano, o 
minicomputadoras que no son tan costosas como las grandes (llamadas también como mainframes que 
significa también, gran sistema), pero disponen de gran capacidad de procesamiento. Algunas 
minicomputadoras fueron las siguientes: la PDP - 8 y la PDP - 11 de Digital Equipment Corporation, la VAX 
(Virtual Address eXtended) de la misma compañía, los modelos NOVA y ECLIPSE de Data General, la serie 
3000 y 9000 de Hewlett - Packard con varios modelos el 36 y el 34, la Wang y Honey - Well -Bull, Siemens de 
origen alemán, la ICL fabricada en Inglaterra. En la Unión Soviética se utilizó la US (Sistema Unificado, Ryad) 
que ha pasado por varias generaciones. 
Cuarta Generación
Aquí aparecen los microprocesadores que es un gran adelanto de la microelectrónica, son circuitos 
integrados de alta densidad y con una velocidad impresionante. Las microcomputadoras con base en estos 
circuitos son extremadamente pequeñas y baratas, por lo que su uso se extiende al mercado industrial. Aquí 
nacen las computadoras personales que han adquirido proporciones enormes y que han influido en la 
sociedad en general sobre la llamada "revolucióninformática". 
En 1976 Steve Wozniak y Steve Jobs inventan la primera microcomputadora de uso masivo y más tarde 
forman la compañía conocida como la Apple que fue la segunda compañía más grande del mundo, 
antecedida tan solo por IBM; y esta por su parte es aún de las cinco compañías más grandes del mundo. 
En 1981 se vendieron 800 00 computadoras personales, al siguiente subió a 1 400 000. Entre 1984 y 1987 se 
vendieron alrededor de 60 millones de computadoras personales, por lo que no queda duda que su impacto y 
penetración han sido enormes. 
Con el surgimiento de las computadoras personales, el software y los sistemas que con ellas de manejan han 
tenido un considerable avance, porque han hecho más interactiva la comunicación con el usuario. Surgen 
otras aplicaciones como los procesadores de palabra, las hojas electrónicas de cálculo, paquetes gráficos, 
etc. También las industrias del Software de las computadoras personales crece con gran rapidez, Gary Kildall 
y William Gates se dedicaron durante años a la creación de sistemas operativos y métodos para lograr una 
utilización sencilla de las microcomputadoras (son los creadores de CP/M y de los productos de Microsoft). 
No todo son microcomputadoras, por su puesto, las minicomputadoras y los grandes sistemas continúan en 
desarrollo. De hecho las máquinas pequeñas rebasaban por mucho la capacidad de los grandes sistemas de 
10 o 15 años antes, que requerían de instalaciones costosas y especiales, pero sería equivocado suponer que 
las grandes computadoras han desaparecido; por el contrario, su presencia era ya ineludible en prácticamente 
todas las esferas de control gubernamental, militar y de la gran industria. Las enormes computadoras de las 
series CDC, CRAY, Hitachi o IBM por ejemplo, eran capaces de atender a varios cientos de millones de 
operaciones por segundo. 
Quinta Generación 
En vista de la acelerada marcha de la microelectrónica, la sociedad industrial se ha dado a la tarea de poner 
también a esa altura el desarrollo del software y los sistemas con que se manejan las computadoras. Surge la 
competenciainternacional por el dominio del mercado de la computación, en la que se perfilan dos líderes que, 
sin embargo, no han podido alcanzar el nivel que se desea: la capacidad de comunicarse con la computadora 
en un lenguaje más cotidiano y no a través de códigos o lenguajes de control especializados. 
Japón lanzó en 1983 el llamado "programa de la quinta generación de computadoras", con los objetivos 
explícitos de producir máquinas con innovaciones reales en los criterios mencionados. Y en los Estados 
Unidos ya está en actividad un programa en desarrollo que persigue objetivos semejantes, que pueden 
resumirse de la siguiente manera: 
 Procesamiento en paralelo mediante arquitecturas y diseños especiales y circuitos de gran velocidad. 
 Manejo de lenguaje natural y sistemas de inteligencia artificial.
El futuro previsible de la computación es muy interesante, y se puede esperar que esta ciencia siga siendo 
objeto de atención prioritaria de gobiernos y de la sociedad en conjunto. 
MODELO DE VON NEUMANN 
Las computadoras digitales actuales se ajustan al modelo propuesto por el matemático John Von Neumann. 
De acuerdo con el, una característica importante de este modelo es que tanto los datos como los programas, 
se almacenan en la memoria antes de ser utilizados. 
REDES DE COMPUTADORAS 
Red de computadoras 
De Wikipedia, la enciclopedia libre 
Saltar a: navegación, búsqueda 
Una red de computadoras, también llamada red de ordenadores, red de comunicaciones 
de datos o red informática, es un conjunto de equipos informáticos y software conectados 
entre sí por medio de dispositivos físicos que envían y reciben impulsos eléctricos, ondas 
electromagnéticas o cualquier otro medio para el transporte de datos, con la finalidad de 
compartir información, recursos y ofrecer servicios.1 
Como en todo proceso de comunicación se requiere de un emisor, un mensaje, un medio y 
un receptor. La finalidad principal para la creación de una red de computadoras es 
compartir los recursos y la información en la distancia, asegurar la confiabilidad y la 
disponibilidad de la información, aumentar la velocidad de transmisión de los datos y 
reducir el costo general de estas acciones.2 Un ejemplo es Internet, la cual es una gran red 
de millones de computadoras ubicadas en distintos puntos del planeta interconectadas 
básicamente para compartir información y recursos. 
La estructura y el modo de funcionamiento de las redes informáticas actuales están 
definidos en varios estándares, siendo el más importante y extendido de todos ellos el 
modelo TCP/IP basado en el modelo de referencia OSI. Este último, estructura cada red en 
siete capas con funciones concretas pero relacionadas entre sí; en TCP/IP se reducen a 
cuatro capas. Existen multitud de protocolos repartidos por cada capa, los cuales también 
están regidos por sus respectivos estándares.3 
Índice 
[ocultar] 
 1 Historia 
 2 Descripción básica 
 3 Componentes básicos de las redes 
o 3.1 Software 
o 3.2 Hardware 
 3.2.1 Tarjeta de red
o 3.3 Dispositivos de usuario final 
 3.3.1 Servidores 
 3.3.2 Almacenamiento en red 
o 3.4 Dispositivos de red 
o 3.5 Protocolos de redes 
 3.5.1 Modelo OSI 
 3.5.2 Modelo TCP/IP 
 3.5.3 Otros estándares 
 4 Clasificación de las redes 
o 4.1 Por alcance 
o 4.2 Por tipo de conexión 
 4.2.1 Medios guiados 
 4.2.2 Medios no guiados 
o 4.3 Por relación funcional 
o 4.4 Por tecnología 
o 4.5 Por topología física 
o 4.6 Por la direccionalidad de los datos 
o 4.7 Por grado de autentificación 
o 4.8 Por grado de difusión 
o 4.9 Por servicio o función 
 5 Véase también 
 6 Referencias 
o 6.1 Bibliografía 
 7 Enlaces externos 
Historia 
El primer indicio de redes de comunicación fue de tecnología telefónica y telegráfica. En 
1940 se transmitieron datos desde la Universidad de Darmouth, en Nuevo Hampshire, a 
Nueva York. A finales de la década de 1960 y en los posteriores 70 fueron creadas las 
minicomputadoras. En 1976, Apple introduce el Apple I, uno de los primeros ordenadores 
personales. En 1981, IBM introduce su primera PC. A mitad de la década de 1980 las PC 
comienzan a usar los módems para compartir archivos con otras computadoras, en un rango 
de velocidades que comenzó en 1200 bps y llegó a los 56 kbps (comunicación punto a 
punto o dial-up), cuando empezaron a ser sustituidos por sistema de mayor velocidad, 
especialmente ADSL. 
Descripción básica 
La comunicación por medio de una red se lleva a cabo en dos diferentes categorías: la capa 
física y la capa lógica. 
La capa física incluye todos los elementos de los que hace uso un equipo para comunicarse 
con otros equipos dentro de la red, como, por ejemplo, las tarjetas de red, los cables, las 
antenas, etc. 
La comunicación a través de la capa física se rige por normas muy rudimentarias que por sí 
mismas resultan de escasa utilidad. Sin embargo, haciendo uso de dichas normas es posible
construir los denominados protocolos, que son normas de comunicación más complejas 
(mejor conocidas como de alto nivel), capaces de proporcionar servicios que resultan útiles. 
Los protocolos son un concepto muy similar al de los idiomas de las personas. Si dos 
personas hablan el mismo idioma, es posible comunicarse y transmitir ideas. 
La razón más importante (quizá la única) sobre por qué existe diferenciación entre la capa 
física y la lógica es sencilla: cuando existe una división entre ambas, es posible utilizar un 
número casi infinito de protocolos distintos, lo que facilita la actualización y migración 
entre distintas tecnologías. 
Componentes básicos de las redes 
Para poder formar una red se requieren elementos: hardware, software y protocolos. Los 
elementos físicos se clasifican en dos grandes grupos: dispositivos de usuario final (hosts) y 
dispositivos de red. Los dispositivos de usuario final incluyen los computadores, 
impresoras, escáneres, y demás elementos que brindan servicios directamente al usuario y 
los segundos son todos aquellos que conectan entre sí a los dispositivos de usuario final, 
posibilitando su intercomunicación. 
El fin de una red es la de interconectar los componentes hardware de una red , y por tanto, 
principalmente, las computadoras individuales, también denominados hosts, a los equipos 
que ponen los servicios en la red, los servidores, utilizando el cableado o tecnología 
inalámbrica soportada por la electrónica de red y unidos por cableado o radiofrecuencia. En 
todos los casos la tarjeta de red se puede considerar el elemento primordial, sea ésta parte 
de un ordenador, de un conmutador, de una impresora, etc. y sea de la tecnología que sea 
(ethernet, Wi-Fi, Bluetooth, etc.) 
Software 
Sistema operativo de red: permite la interconexión de ordenadores para poder acceder a 
los servicios y recursos. Al igual que un equipo no puede trabajar sin un sistema operativo, 
una red de equipos no puede funcionar sin un sistema operativo de red. En muchos casos el 
sistema operativo de red es parte del sistema operativo de los servidores y de los clientes, 
por ejemplo en Linux y Microsoft Windows. 
Software de aplicación: en última instancia, todos los elementos se utilizan para que el 
usuario de cada estación, pueda utilizar sus programas y archivos específicos. Este software 
puede ser tan amplio como se necesite ya que puede incluir procesadores de texto, paquetes 
integrados, sistemas administrativos de contabilidad y áreas afines, sistemas especializados, 
correos electrónico, etc. El software adecuado en el sistema operativo de red elegido y con 
los protocolos necesarios permiten crear servidores para aquellos servicios que se necesiten. 
Hardware 
Tarjeta de red 
Artículo principal: Tarjeta de red
Para lograr el enlace entre las computadoras y los medios de transmisión (cables de red o 
medios físicos para redes alámbricas e infrarrojos o radiofrecuencias para redes 
inalámbricas), es necesaria la intervención de una tarjeta de red, o NIC (Network Card 
Interface), con la cual se puedan enviar y recibir paquetes de datos desde y hacia otras 
computadoras, empleando un protocolo para su comunicación y convirtiendo a esos datos a 
un formato que pueda ser transmitido por el medio (bits, ceros y unos). Cabe señalar que a 
cada tarjeta de red le es asignado un identificador único por su fabricante, conocido como 
dirección MAC (Media Access Control), que consta de 48 bits (6 bytes). Dicho 
identificador permite direccionar el tráfico de datos de la red del emisor al receptor 
adecuado. 
El trabajo del adaptador de red es el de convertir las señales eléctricas que viajan por el 
cable (ej: red Ethernet) o las ondas de radio (ej: red Wi-Fi) en una señal que pueda 
interpretar el ordenador. 
Estos adaptadores son unas tarjetas PCI que se conectan en las ranuras de expansión del 
ordenador. En el caso de ordenadores portátiles, estas tarjetas vienen en formato PCMCIA 
o similares. En los ordenadores del siglo XXI, tanto de sobremesa como portátiles, estas 
tarjetas ya vienen integradas en la placa base. 
Adaptador de red es el nombre genérico que reciben los dispositivos encargados de realizar 
dicha conversión. Esto significa que estos adaptadores pueden ser tanto Ethernet, como 
wireless, así como de otros tipos como fibra óptica, coaxial, etc. También las velocidades 
disponibles varían según el tipo de adaptador; éstas pueden ser, en Ethernet, de 10, 100, 
1000 Mbps o 10000, y en los inalámbricos, principalmente, de 11, 54, 300 Mbps. 
Dispositivos de usuario final 
 Computadoras personales: son los puestos de trabajo habituales de las redes. Dentro de 
la categoría de computadoras, y más concretamente computadoras personales, se 
engloban todos los que se utilizan para distintas funciones, según el trabajo que realizan. 
Se incluyen desde las potentes estaciones de trabajo para la edición de vídeo, por 
ejemplo, hasta los ligeros equipos portátiles, conocidos como netbooks, cuya función 
principal es la de navegar por Internet. Las tabletas se popularizaron al final de la primera 
década del siglo XXI, especialmente por el éxito del iPad de Apple. 
 Terminal: muchas redes utilizan este tipo de equipo en lugar de puestos de trabajo para la 
entrada de datos. En estos sólo se exhiben datos o se introducen. Este tipo de terminales, 
trabajan unido a un servidor, que es quien realmente procesa los datos y envía pantallas 
de datos a los terminales. 
 Electrónica del hogar: las tarjetas de red empezaron a integrarse, de forma habitual, 
desde la primera década del siglo XXI, en muchos elementos habituales de los hogares: 
televisores, equipos multimedia, proyectores, videoconsolas, teléfonos celulares, libros 
electrónicos, etc. e incluso en electrodomésticos, como frigoríficos, convirtiéndolos en 
partes de las redes junto a los tradiciones ordenadores. 
 Impresoras: muchos de estos dispositivos son capaces de actuar como parte de una red de 
ordenadores sin ningún otro elemento, tal como un print server, actuando como 
intermediario entre la impresora y el dispositivo que está solicitando un trabajo de
impresión de ser terminado. Los medios de conectividad de estos dispositivos pueden ser 
alambricos o inalámbricos, dentro de este último puede ser mediante: ethernet, Wi-Fi, 
infrarrojo o bluetooth. En algunos casos se integran dentro de la impresora y en otros por 
medio de convertidores externos. 
 Otros elementos: escáneres, lectores de CD-ROM, 
Servidores 
Artículo principal: Servidor 
Son los equipos que ponen a disposición de los clientes los distintos servicios. En la 
siguiente lista hay algunos tipos comunes de servidores y sus propósitos: 
 Servidor de archivos: almacena varios tipos de archivo y los distribuye a otros clientes en 
la red. Pueden ser servidos en distinto formato según el servicio que presten y el medio: 
FTP, SMB, etc. 
 Servidor de impresión: controla una o más impresoras y acepta trabajos de impresión de 
otros clientes de la red, poniendo en cola los trabajos de impresión (aunque también 
puede cambiar la prioridad de las diferentes impresiones), y realizando la mayoría o todas 
las otras funciones que en un sitio de trabajo se realizaría para lograr una tarea de 
impresión si la impresora fuera conectada directamente con el puerto de impresora del 
sitio de trabajo. 
 Servidor de correo: almacena, envía, recibe, enruta y realiza otras operaciones 
relacionadas con el e-mail para los clientes de la red. 
 Servidor de fax: almacena, envía, recibe, enruta y realiza otras funciones necesarias para 
la transmisión, la recepción y la distribución apropiadas de los fax, con origen y/o destino 
una computadora o un dispositivo físico de telefax. 
 Servidor de telefonía: realiza funciones relacionadas con la telefonía, como es la de 
contestador automático, realizando las funciones de un sistema interactivo para la 
respuesta de la voz, almacenando los mensajes de voz, encaminando las llamadas y 
controlando también la red o Internet, etc. Pueden operan con telefonía IP o analógica. 
 Servidor proxy: realiza un cierto tipo de funciones en nombre de otros clientes en la red 
para aumentar el funcionamiento de ciertas operaciones (p. ej., prefetching y depositar 
documentos u otros datos que se soliciten muy frecuentemente). También «sirve» 
seguridad; esto es, tiene un firewall (cortafuegos). Permite administrar el acceso a 
Internet en una red de computadoras permitiendo o negando el acceso a diferentes sitios 
web, basándose en contenidos, origen/destino, usuario, horario, etc. 
 Servidor de acceso remoto (RAS, del inglés Remote Access Service): controla las líneas de 
módems u otros canales de comunicación de la red para que las peticiones conecten una 
posición remota con la red, responden las llamadas telefónicas entrantes o reconocen la 
petición de la red y realizan los chequeos necesarios de seguridad y otros procedimientos 
necesarios para registrar a un usuario en la red. Gestionan las entradas para establecer la 
redes virtuales privadas, VPN.
 Servidor web: almacena documentos HTML, imágenes, archivos de texto, escrituras, y 
demás material web compuesto por datos (conocidos normalmente como contenido), y 
distribuye este contenido a clientes que la piden en la red. 
 Servidor de streaming: servidores que distribuyen multimedia de forma continua evitando 
al usuario esperar a la descarga completa del fichero. De esta forma se pueden distribuir 
contenidos tipo radio, vídeo, etc. en tiempo real y sin demoras. 
 Servidor de reserva, o standby server: tiene el software de reserva de la red instalado y 
tiene cantidades grandes de almacenamiento de la red en discos duros u otras formas del 
almacenamiento disponibles para que se utilice con el fin de asegurarse de que la pérdida 
de un servidor principal no afecte a la red. El servidor de reserva lo puede ser de 
cualquiera de los otros tipos de servidor, siendo muy habituales en los servidores de 
aplicaciones y bases de datos. 
 Servidor de autenticación: es el encargado de verificar que un usuario pueda conectarse a 
la red en cualquier punto de acceso, ya sea inalámbrico o por cable, basándose en el 
estándar 802.1x y puede ser un servidor de tipo RADIUS. 
 Servidores para los servicios de red: estos equipos gestionan aquellos servicios necesarios 
propios de la red y sin los cuales no se podrían interconectar, al menos de forma sencilla. 
Algunos de esos servicios son: servicio de directorio para la gestión d elos usuarios y los 
recursos compartidos, Dynamic Host Configuration Protocol (DHCP) para la asignación de 
las direcciones IP en redes TCP/IP, Domain Name System (DNS) para poder nombrar los 
equipos sin tener que recurrir a su dirección IP numérica, etc. 
 Servidor de base de datos: permite almacenar la información que utilizan las aplicaciones 
de todo tipo, guardándola ordenada y clasificada y que puede ser recuperada en cualquier 
momento y en base a una consulta concreta. Estos servidores suelen utilizar lenguajes 
estandarízados para hacer más fácil y reutilizable la programación de aplicaciones, uno de 
los más populares es SQL. 
 Servidor de aplicaciones: ejecuta ciertas aplicaciones. Usualmente se trata de un 
dispositivo de software que proporciona servicios de aplicación a las computadoras 
cliente. Un servidor de aplicaciones gestiona la mayor parte (o la totalidad) de las 
funciones de lógica de negocio y de acceso a los datos de la aplicación. Los principales 
beneficios de la aplicación de la tecnología de servidores de aplicación son la 
centralización y la disminución de la complejidad en el desarrollo de aplicaciones. 
 Servidores de monitorización y gestión: ayudan a simplificar las tareas de control, 
monitorización, búsqueda de averías, resolución de incidencias, etc. Permiten, por 
ejemplo, centralizar la recepción de mensajes de aviso, alarma e información que emiten 
los distintos elementos de red (no solo los propios servidores). El SNMP es un de los 
protocolos más difundidos y que permite comunicar elementos de distintos fabricantes y 
de distinta naturaleza. 
 Y otros muchos dedicados a múltiples tareas, desde muy generales a aquellos de una 
especifidad enorme.
Almacenamiento en red 
En la redes medianas y grandes el almacenamiento de datos principal no se produce en los 
propios servidores sino que se utilizan dispositivos externos, conocidos como disk arrays 
(matrices de discos) interconectados, normalmente por redes tipo SAN, o NAS. Estos 
medios permiten centralizar la información, una mejor gestión del espacio, sistemas 
redundantes y de alta disponibilidad. 
Los medios de copia de seguridad suelen incluirse en la misma red donde se alojan los 
medios de almacenamiento mencionados más arriba, de esta forma el traslado de datos 
entre ambos, tanto al hacer la copia como las posibles restauraciones, se producen dentro de 
esta red sin afectar al tráfico de los clientes con los servidores o entre ellos. 
Dispositivos de red 
Los equipos informáticos descritos necesitan de una determinada tecnología que forme la 
red en cuestión. Según las necesidades se deben seleccionar los elementos adecuados para 
poder completar el sistema. Por ejemplo, si queremos unir los equipos de una oficina entre 
ellos debemos conectarlos por medio de un conmutador o un concentrador, si además hay 
un varios portátiles con tarjetas de red Wi-Fi debemos conectar un punto de acceso 
inalámbrico para que recoja sus señales y pueda enviarles las que les correspondan, a su vez 
el punto de acceso estará conectado al conmutador por un cable. Si todos ellos deben 
disponer de acceso a Internet, se interconectaran por medio de un router, que podría ser 
ADSL, ethernet sobre fibra óptica, broadband, etc. 
Los elementos de la electrónica de red más habituales son: 
 Conmutador, o switch, 
 Enrutador, o router, 
 Puente de red, o bridge, 
 Puente de red y enrutador, o brouter, 
 Punto de acceso inalámbrico, o WAP (Wireless Access Point), 
Protocolos de redes 
Artículo principal: Protocolo de red 
Existen diversos protocolos, estándares y modelos que determinan el funcionamiento 
general de las redes. Destacan el modelo OSI y el TCP/IP. Cada modelo estructura el 
funcionamiento de una red de manera distinta. El modelo OSI cuenta con siete capas muy 
definidas y con funciones diferenciadas y el TCP/IP con cuatro capas diferenciadas pero 
que combinan las funciones existentes en las siete capas del modelo OSI.4 Los protocolos 
están repartidos por las diferentes capas pero no están definidos como parte del modelo en 
sí sino como entidades diferentes de normativas internacionales, de modo que el modelo 
OSI no puede ser considerado una arquitectura de red.5 
Modelo OSI 
Artículo principal: Modelo OSI
El modelo OSI (Open Systems Interconnection) fue creado por la ISO y se encarga de la 
conexión entre sistemas abiertos, esto es, sistemas abiertos a la comunicación con otros 
sistemas. Los principios en los que basó su creación eran: una mayor definición de las 
funciones de cada capa, evitar agrupar funciones diferentes en la misma capa y una mayor 
simplificación en el funcionamiento del modelo en general.4 
Este modelo divide las funciones de red en siete capas diferenciadas: 
# Capa Unidad de intercambio 
7. Aplicación APDU 
6. Presentación PPDU 
5. Sesión SPDU 
4. Transporte TPDU 
3. Red Paquete 
2. Enlace Marco / Trama 
1. Física Bit 
Modelo TCP/IP 
Artículo principal: TCP/IP 
Este modelo es el implantado actualmente a nivel mundial: fue utilizado primeramente en 
ARPANET y es utilizado actualmente a nivel global en Internet y redes locales. Su nombre 
deriva de la unión del los nombres de los dos principales protocolos que lo conforman: TCP 
en la capa de transporte e IP en la capa de red.6 Se compone de cuatro capas: 
# Capa Unidad de intercambio 
4. Aplicación no definido 
3. Transporte Paquete 
2. Red / Interred no definido (Datagrama) 
1. Enlace / nodo a red ?? 
Otros estándares 
Existen otros estándares, más concretos, que definen el modo de funcionamiento de 
diversas tecnologías de transmisión de datos:
Esta lista muestra algunos ejemplos, no es completa. 
Tecnología Estándar Año de primera publicación Otros detalles 
Ethernet IEEE 802.3 1983 - 
Token Ring IEEE 802.5 1970s7 
- 
WLAN IEEE 802.11 19978 
- 
Bluetooth IEEE 802.15 20029 
- 
FDDI ISO 9314-x 1987 Reúne un conjunto de estándares. 
PPP RFC 1661 199410 
- 
Clasificación de las redes 
Una red puede recibir distintos calificativos de clasificación en base a distintas taxonomías: 
alcance, tipo de conexión, tecnología, etc. 
Por alcance 
 Red de área personal, o PAN (Personal Area Network) en inglés, es una red de 
ordenadores usada para la comunicación entre los dispositivos de la computadora cerca 
de una persona. 
 Red inalámbrica de área personal, o WPAN (Wireless Personal Area Network), es una red 
de computadoras inalámbrica para la comunicación entre distintos dispositivos (tanto 
computadoras, puntos de acceso a internet, teléfonos celulares, PDA, dispositivos de 
audio, impresoras) cercanos al punto de acceso. Estas redes normalmente son de unos 
pocos metros y para uso personal, así como fuera de ella. El medio de transporte puede 
ser cualquiera de los habituales en las redes inalámbricas pero las que reciben esta 
denominación son habituales en Bluetooth. 
 Red de área local, o LAN (Local Area Network), es una red que se limita a un área especial 
relativamente pequeña tal como un cuarto, un solo edificio, una nave, o un avión. Las 
redes de área local a veces se llaman una sola red de localización. No utilizan medios o 
redes de interconexión públicos. 
 Red de área local inalámbrica, o WLAN (Wireless Local Area Network), es un sistema de 
comunicación de datos inalámbrico flexible, muy utilizado como alternativa a las redes de 
área local cableadas o como extensión de estas. 
 Red de área de campus, o CAN (Campus Area Network), es una red de computadoras de 
alta velocidad que conecta redes de área local a través de un área geográfica limitada, 
como un campus universitario, una base militar, hospital, etc. Tampoco utiliza medios 
públicos para la interconexión.
 Red de área metropolitana (metropolitan area network o MAN, en inglés) es una red de 
alta velocidad (banda ancha) que da cobertura en un área geográfica más extensa que un 
campus, pero aun así limitado. Por ejemplo, un red que interconecte los edificios públicos 
de un municipio dentro de la localidad por medio de fibra óptica. 
 Redes de área amplia, o WAN (Wide Area Network), son redes informáticas que se 
extienden sobre un área geográfica extensa utilizando medios como: satélites, cables 
interoceánicos, Internet, fibras ópticas públicas, etc. 
 Red de área de almacenamiento, en inglés SAN (Storage Area Network), es una red 
concebida para conectar servidores, matrices (arrays) de discos y librerías de soporte, 
permitiendo el tránsito de datos sin afectar a las redes por las que acceden los usuarios. 
 Red de área local virtual, o VLAN (Virtual LAN), es un grupo de computadoras con un 
conjunto común de recursos a compartir y de requerimientos, que se comunican como si 
estuvieran adjuntos a una división lógica de redes de computadoras en la cual todos los 
nodos pueden alcanzar a los otros por medio de broadcast (dominio de broadcast) en la 
capa de enlace de datos, a pesar de su diversa localización física. Este tipo surgió como 
respuesta a la necesidad de poder estructurar las conexiones de equipos de un edificio por 
medio de software,11 permitiendo dividir un conmutador en varios virtuales. 
Por tipo de conexión 
Medios guiados 
Véase también: Cableado estructurado 
 El cable coaxial se utiliza para transportar señales electromagnéticas de alta frecuencia 
que posee dos conductores concéntricos, uno central, llamado vivo y uno exterior 
denominado malla o blindaje, que sirve como referencia de tierra y retorno de las 
corrientes; los cuales están separados por un material dieléctrico que, en realidad, 
transporta la señal de información. 
 El cable de par trenzado es una forma de conexión en la que dos conductores eléctricos 
aislados son entrelazados para tener menores interferencias y aumentar la potencia y 
disminuir la diafonía de los cables adyacentes. Dependiento de la red se pueden utilizar, 
uno, dos, cuatro o más pares. 
 La fibra óptica es un medio de transmisión empleado habitualmente en redes de datos; un 
hilo muy fino de material transparente, vidrio o materiales plásticos, por el que se envían 
pulsos de luz que representan los datos a transmitir. 
Medios no guiados 
Véanse también: Red inalámbrica y 802.11. 
 Red por radio es aquella que emplea la radiofrecuencia como medio de unión de las 
diversas estaciones de la red. 
 Red por infrarrojos, permiten la comunicación entre dos nodos, usando una serie de leds 
infrarrojos para ello. Se trata de emisores/receptores de ondas infrarrojas entre ambos 
dispositivos, cada dispositivo necesita al otro para realizar la comunicación por ello es 
escasa su utilización a gran escala. No disponen de gran alcacen y necesitan de visibilidad 
entre los dispositivos.
 Red por microondas, es un tipo de red inalámbrica que utiliza microondas como medio de 
transmisión. Los protocolos más frecuentes son: el IEEE 802.11b y transmite a 2,4 GHz, 
alcanzando velocidades de 11 Mbps (Megabits por segundo); el rango de 5,4 a 5,7 GHz 
para el protocolo IEEE 802.11a; el IEEE 802.11n que permite velocidades de hasta 600 
Mbps; etc. 
Por relación funcional 
 Cliente-servidor es la arquitectura que consiste básicamente en un cliente que realiza 
peticiones a otro programa (el servidor) que le da respuesta. 
 Peer-to-peer, o red entre iguales, es aquella red de computadoras en la que todos o 
algunos aspectos funcionan sin clientes ni servidores fijos, sino una serie de nodos que se 
comportan como iguales entre sí. 
Por tecnología 
 Red Point-To-Point es aquella en la que existe multitud de conexiones entre parejas 
individuales de máquinas. Este tipo de red requiere, en algunos casos, máquinas 
intermedias que establezcan rutas para que puedan transmitirse paquetes de datos. El 
medio electrónico habitual para la interconexión es el conmutador, o switch. 
 Red broadcast se caracteriza por transmitir datos por un sólo canal de comunicación que 
comparten todas las máquinas de la red. En este caso, el paquete enviado es recibido por 
todas las máquinas de la red pero únicamente la destinataria puede procesarlo. Las 
equipos unidos por un concentrador, o hub, forman redes de este tipo. 
Por topología física 
Topologías físicas de red. 
Véase también: Topología de red 
 La red en bus se caracteriza por tener un único canal de comunicaciones (denominado 
bus, troncal o backbone) al cual se conectan los diferentes dispositivos.
 En una red en anillo cada estación está conectada a la siguiente y la última está conectada 
a la primera. 
 En una red en estrella las estaciones están conectadas directamente a un punto central y 
todas las comunicaciones se han de hacer necesariamente a través de éste. 
 En una red en malla cada nodo está conectado a todos los otros. 
 En una red en árbol los nodos están colocados en forma de árbol. Desde una visión 
topológica, la conexión en árbol es parecida a una serie de redes en estrella 
interconectadas salvo en que no tiene un nodo central. 
 En una red mixta se da cualquier combinación de las anteriores. 
Anillo: Las estaciones están unidas unas con otras formando un círculo por medio de un cable común. El 
último nodo de la cadena se conecta al primero cerrando el anillo. Las señales circulan en un solo sentido 
alrededor del círculo, regenerándose en cada nodo. Con esta metodología, cada nodo examina la información 
que es enviada a través del anillo. Si la información no está dirigida al nodo que la examina, la pasa al 
siguiente en el anillo. La desventaja del anillo es que si se rompe una conexión, se cae la red completa. 
Para ver el gráfico seleccione la opción "Descargar" del menú superior 
Estrella: Los datos en estas redes fluyen del emisor hasta el concentrador, este realiza todas las funciones de 
la red, además actúa como amplificador de los datos. 
La red se une en un único punto, normalmente con un panel de control centralizado, como un concentrador de 
cableado. Los bloques de información son dirigidos a través del panel de control central hacia sus destinos. 
Este esquema tiene una ventaja al tener un panel de control que monitorea el tráfico y evita las colisiones y 
una conexión interrumpida no afecta al resto de la red. 
Para ver el gráfico seleccione la opción "Descargar" del menú superior 
Híbridas: El bus lineal, la estrella y el anillo se combinan algunas veces para formar combinaciones de redes 
híbridas. 
Anillo en Estrella: Esta topología se utiliza con el fin de facilitar la administración de la red. Físicamente, la red 
es una estrella centralizada en un concentrador, mientras que a nivel lógico, la red es un anillo. 
"Bus" en Estrella: El fin es igual a la topología anterior. En este caso la red es un "bus" que se cablea 
físicamente como una estrella por medio de concentradores. 
Estrella Jerárquica: Esta estructura de cableado se utiliza en la mayor parte de las redes locales actuales, por 
medio de concentradores dispuestos en cascada par formar una red jerárquica. 
Para ver el gráfico seleccione la opción "Descargar" del menú superior 
Árbol: Esta estructura se utiliza en aplicaciones de televisión por cable, sobre la cual podrían basarse las 
futuras estructuras de redes que alcancen los hogares. También se ha utilizado en aplicaciones de redes 
locales analógicas de banda ancha. 
Trama: Esta estructura de red es típica de las WAN, pero también se puede utilizar en algunas aplicaciones 
de redes locales (LAN). Las estaciones de trabajo están conectadas cada una con todas las demás. 
Por la direccionalidad de los datos 
 Simplex o unidireccional: un equipo terminal de datos transmite y otro recibe. 
 Half-duplex, en castellano semidúplex: el método o protocolo de envío de información es 
bidireccional pero no simultáneobidireccional, sólo un equipo transmite a la vez. 
 Full-duplex, o dúplex,: los dos equipos involucrados en la comunicación lo pueden hacer 
de forma simultánea, transmitir y recibir. 
Por grado de autentificación 
 Red privada: es una red que solo puede ser usada por algunas personas y que está 
configurada con clave de acceso personal.[cita requerida] 
 Red de acceso público: una red pública se define como una red que puede usar cualquier 
persona y no como las redes que están configuradas con clave de acceso personal. Es una
red de computadoras interconectados, capaz de compartir información y que permite 
comunicar a usuarios sin importar su ubicación geográfica.[cita requerida] 
Por grado de difusión 
 Una intranet es una red de ordenadores privados que utiliza tecnología Internet para 
compartir dentro de una organización parte de sus sistemas de información y sistemas 
operacionales. 
 Internet es un conjunto descentralizado de redes de comunicación interconectadas que 
utilizan la familia de protocolos TCP/IP, garantizando que las redes físicas heterogéneas 
que la componen funcionen como una red lógica única, de alcance mundial. 
Por servicio o función 
 Una red comercial proporciona soporte e información para una empresa u organización 
con ánimo de lucro. 
 Una red educativa proporciona soporte e información para una organización educativa 
dentro del ámbito del aprendizaje. 
 Una red para el proceso de datos proporciona una interfaz para intercomunicar equipos 
que vayan a realizar una función de cómputo conjunta.[cita requerida] 
Véase también 
 Dirección IP 
 Dirección MAC 
 Hardware de red 
 Historia de Internet 
 Internet 
 Intranet 
 Modelo OSI 
 Red heterogénea 
 Modelo TCP/IP 
 Topología de red 
 
MICROCOMPUTADORAS 
Microcomputadora 
De Wikipedia, la enciclopedia libre 
Saltar a: navegación, búsqueda
El Commodore 64 fue uno de los más famosos microordenadores de su época, y el modelo mejor 
vendido de las computadores caseras de todos los tiempos. 
Una microcomputadora es una computadora pequeña, con un microprocesador como su 
Unidad Central de Procesamiento (CPU).Generalmente, el microprocesador incluye los 
circuitos de almacenamiento (o memoria caché) y entrada/salida en el mismo circuito 
integrado (o chip). Las microcomputadoras se hicieron populares desde 1970 y 1980 con el 
surgimiento de microprocesadores más potentes. Los predecesores de estas computadoras, 
las supercomputadoras y las minicomputadoras, eran mucho más grandes y costosas 
(aunque las supercomputadoras modernas, como IBM System z, utilizan uno o más 
microprocesadores como CPUs). Muchas microcomputadoras (cuando están equipadas con 
un teclado y una pantalla para entrada y salida) son también computadoras personales (en 
sentido general). La abreviatura micro fue comúnmente utilizada durante la década de los 
70 y los 80, aunque actualmente esté en desuso. 
Índice 
[ocultar] 
 1 Orígenes 
 2 Uso coloquial del término 
 3 Descripción 
 4 Historia 
 5 Véase también 
 6 Referencias 
Orígenes[editar] 
El término microcomputadora se hizo popular después de la introducción del término 
minicomputadoras, aunque Isaac Asimov ya lo había usado en su historia "The Dying 
Night" en 1956 (publicada en The Magazine of Fantasy and Science Fiction en julio de ese 
año). Notablemente, la microcomputadora reemplazó los diferentes componentes que 
conformaban el CPU de las minicomputadoras por un solo microprocesador integrado. Los 
desarrolladores franceses de Micral-N (1973) archivaron sus patentes con el término
"Micro-ordinateur", equivalente literalmente a microcomputadora, para nombrar la primera 
máquina de estado sólido con un microprocesador. 
En los Estados Unidos, los primeros modelos tales como Altair 8800, fueron a menudo 
vendidos como un conjunto que debía ser ensamblado por el usuario, y venían con una 
RAM de 256 bytes; y como únicos dispositivos de entrada y salida, los indicadores de luz y 
switches, demostrando a modo de prueba de concepto, cuan simple podía ser un 
dispositivo. 
En la medida que los microprocesadores y las memorias semiconductores se hicieron 
menos costosas, las microcomputadoras se hicieron más baratas y fáciles de usar:: 
 El aumento de chips lógicos menos costosos como las series 7400 permitieron utilizar 
circuitos dedicados más baratos para mejorar las interfaces de usuarios tales como el 
teclado, en lugar de switches para procesar un bit por cada vez. 
 El uso de casetes de audio para almacenar datos permitió el remplazo la reentrada manual 
de los programas cada vez que los dispositivos se encendían. 
 Los arrays de puertas lógicas de silicona en forma de memorias de solo lectura y EPROMs 
permitieron almacenar en las microcomputadoras programas útiles y núcleos de auto 
booteos. Estos programas de almacenado podían automáticamente cargar software más 
complejos desde dispositivos de almacenamiento externo, sin la intervención de usuarios 
para formar un sistema completamente listo que no requería de conocimiento experto en 
computación para utilizar el dispositivo. 
 Memorias de acceso aleatorio se convirtieron en lo suficientemente barato para ofrecer 
aproximadamente 1-2 kilobytes de memoria dedicados a los buffer del dispositivo de 
control de video, de 40x25 o 80x25 para mostrar textos o bloques de colores gráficos en 
una pantalla común de televisión. Esto remplazó el costoso, complejo y caro teleimpresor, 
que era comúnmente utilizado como interfaz de las minicomputadoras y 
supercomputadoras. 
Todas estas mejoras en costo y usabilidad resultaron en una explosión de popularidad al 
final de los 70 y principios de los 80. Un largo número de fabricantes de computadoras 
empacaron microcomputadoras para ser usadas en aplicaciones de pequeños negocios. Para 
1979, muchas compañías, tales como Cromemco, IMSAI, North Star Computers, 
Southwest Technical Products Corporation, Ohio Scientific, Altos Computer Systems, 
Morrow Designs y otras, produjeron sistemas como sistemas de bases de datos, contables y 
procesamiento de texto, diseñados tanto para usuarios con todos los recursos o firmas 
consultoras, como para sistemas de negocio específicos. Esto permitió a los negocios 
incapaces de proveer licencias de minicomputadoras o compartir tiempo de servicio, la 
oportunidad de automatizar sus funciones, sin contratar personal a tiempo completo para 
operar las computadoras. Un representante de estos sistemas utilizaba un bus S100, un 
procesador de 8 bit como Intel 8080 o Zilog Z80, y como sistema operativo CP/M o MP/M. 
El incremento de las capacidades y la fuerza de las computadoras de escritorio para uso 
personal atrajeron la atención de más desarrolladores de software. Con el paso del tiempo, y 
el desarrollo de la industria, el mercado de las computadoras personal adoptó estándares 
compatibles con las computadoras IBM para correr en DOS, y posteriormente en Windows. 
Las computadoras de escritorio modernas, las consolas de video juegos, las laptops, los 
table PCs, y muchos otros tipos de dispositivos táctiles, incluidos teléfonos móviles, y
sistemas industriales embebidos, pueden ser considerados todos ejemplos de 
microcomputadoras de acuerdo a las definiciones dadas. 
Uso coloquial del término[editar] 
Cada día el uso de la expresión "microcomputadora" (y particularmente la abreviación 
"micro") ha caído más en desuso desde la mitad de la década de los 80, y ya no es 
considerado un término común. Este término, comúnmente es asociado con la primera ola 
de computadoras de 8-bit y las microcomputadoras para negocios pequeños (tales como 
Apple II, Commodore 64, BBC Micro, and TRS 80). Además, quizás influye la gran 
variedad de los dispositivos modernos basados en microprocesadores que se ajustan a la 
definición de "microcomputadoras". 
Luego el término, "microcomputadora" ha sido suplantado por "computadora personal" or 
"PC," el cual describe que han sido creadas para ser utilizadas por una persona a la vez. 
IBM fue el primero en promover el término "computadora personal" para diferenciarlas a 
ellas mismas de otras microcomputadoras, a menudo llamadas "computadoras caseras", 
además de las propias supercomputadoras de IBM y las minicomputadoras. Sin embargo, 
después de su lanzamiento, la propia PC de IBM fue ampliamente imitada, así como el 
termino microcomputadora. Los componentes eran comúnmente disponibles para los 
productores y el BIOS era reservado a los ingenieros. Los "clones" de las PC de IBM se 
convirtieron populares, y los términos "computadora personal," y especialmente "PC" 
utilizado por el público en general. 
Desde la llegada de los microcontroladores (circuitos integrados monolíticos que contienen 
RAM, ROM y CPU todos sobre una misma placa), el término "micro" es más comúnmente 
utilizado para referirse a ese significado. 
Descripción[editar] 
Monitores, teclados y otros dispositivos de entrada y salida pueden estar integrados o 
separados. La memoria de computadora en forma de RAM, y al menos otro dispositivo de 
almacenamiento de memoria menos volátil se suele combinar con la CPU en un bus de 
sistema en una unidad. Otros dispositivos que componen un sistema de microordenador 
completo incluyen las baterías, una fuente de alimentación, un teclado y varios dispositivos 
de entrada/salida que se utilizan para transmitir información hacia y desde un operador 
humano (impresoras, monitores, dispositivos de interfaz humana). Los microordenadores 
están diseñados para servir a un único usuario a la vez, aunque a menudo se pueden 
modificar mediante software o hardware para servir al mismo tiempo a más de un usuario. 
Los microordenadores encajan bien dentro o debajo de los escritorios o mesas, de manera 
que sean de fácil acceso de los usuarios. Computadoras más grandes como 
minicomputadoras, computadoras centrales, y supercomputadoras ocupan grandes armarios 
o incluso salas dedicadas. 
Una microcomputadora viene equipada con al menos un tipo de almacenamiento de datos, 
normalmente RAM. Aunque algunos microordenadores (particularmente los primeros 
micros de 8 bits) realizan tareas utilizando solo la RAM, alguna forma de almacenamiento 
secundario es normalmente deseable. En los primeros días de los primeros micros, esto era 
a menudo un reproductor de casetes de datos (en muchos casos como una unidad externa).
Más tarde, formas de almacenamiento secundario (sobre todo en forma de disquete y 
unidades de disco duro) fueron construidas dentro de la computadora. 
Historia[editar] 
Una colleción de las primeras microcomputadoras: Processor Technology SOL-20, un MITS Altair 
8800, a TV Typewriter, y una Apple I 
Aunque no contenían ningún microprocesador, y estar construidos alrededor de la lógica 
transistor-transistor (TTL), las calculadoras Hewlett-Packard ya en 1968 tenía varios 
niveles de programación tales que se podría llamar microordenadores. El HP 9100B (1968) 
tenía sentencias condicionales, declaraciones de salto (GO_TO), los registros que se 
podrían utilizar como variables y subrutinas primitivas. El lenguaje de programación era 
parecido al lenguaje ensamblador en muchos aspectos. Modelos posteriores fueron 
añadiendo más características, incluyendo el lenguaje de programación BASIC (HP 9830A 
in 1971). Algunos modelos tenían almacenamiento en cinta e impresoras pequeñas. Sin 
embargo, las pantallas se limitaban a una sola línea a la vez. [1] El HP 9100A fue referido 
como un ordenador personal en un anuncio en una revista de Ciencia de 1968, pero ese 
anuncio fue abandonado rápidamente. Se sospecha que HP era reacio a llamarlas 
"computadoras" ya que complicaría los procedimientos de contratación y de exportación 
del gobierno. 
El Datapoint 2200, hecho por CTC en 1970, es quizás el mejor candidato para el título de 
"primer microordenador". A pesar de que no contiene microprocesador, el conjunto de 
instrucciones de su procesador TTL era la base del conjunto de instrucciones del 
procesador Intel 8008, y para fines prácticos, el sistema se comporta aproximadamente
como si contiene un 8008. Esto es debido a que Intel fue el contratista a cargo de 
desarrollar el CPU de la Datapoint, pero en última instancia CTC rechazó el diseño de 8008 
porque necesitaba el soporte de 20 microchip. 
Otro de los primeros sistemas, la Kenbak-1, fue lanzado en 1971. Al igual que el Datapoint 
2200, utilizó un transistor de lógica discreta en lugar de un microprocesador, pero 
funcionaba como un microordenador en la mayoría de los aspectos. Se comercializó como 
una herramienta educativa y un hobby, pero no fue un éxito comercial; su producción cesó 
poco después. 
En 1972, un equipo francés dirigido por François Gernelle dentro de una pequeña empresa , 
Réalisations y Etudes Electroniqes (R2E), desarrolló y patentó un equipo basado en un 
microprocesador - Intel 8008 de 8 bits de microprocesador. Micral-N se comercializó a 
principios de 1973 como un "microordenador", principalmente para aplicaciones científicas 
y de procesos técnicos. Alrededor de un centenar de Micral-N fueron instalados en los 
próximos dos años, seguido de una nueva versión basada en el Intel 8080. Mientras tanto, 
otro equipo francés desarrolló el Alvan, un pequeño ordenador para la automatización de la 
oficina que encontró clientes en los bancos y otros sectores. La primera versión se basa en 
chips LSI con un controlador periférico Intel 8008 (teclado, monitor e impresora), antes de 
adoptar el Zilog Z80 como procesador principal. 
En 1972, un equipo de la Universidad Estatal de Sacramento liderado por Bill Pentz Bill 
Pentz construyó el equipo Sac State 8008, capaz de manejar miles de registros médicos de 
los pacientes. El Sac State 8008 fue diseñado con el Intel 8008. Tenía un sistema completo 
de componentes de hardware y software: un sistema operativo de disco incluido en una 
serie de sólo lectura programable y chips de memoria (PROM); 8 Kilobytes de RAM; un 
lenguaje ensamblador básico de IBM (BAL), un disco duro, una pantalla a color; una salida 
de la impresora; un 150 bit/s interfaz en serie para la conexión a un ordenador central; e 
incluso el primer panel frontal de microordenador del mundo. 
Prácticamente los primeros microordenadores eran esencialmente cajas con luces e 
interruptores; había que leer y entender los números binarios y lenguaje de máquina para 
programarlos y usarlos (el Datapoint 2200 fue una excepción notable, con un diseño 
moderno basado en un monitor, el teclado y la cinta y las unidades de disco). De las 
primeras "cajas de switches" para microordenadores, el MITS Altair 8800 (1975) fue sin 
duda el más famoso. La mayoría de estos primeros microordenadores simples, fueron 
vendidos como un conjunto de componentes electrónicos que el comprador tenía que armar 
antes de que el sistema pudiera ser utilizado. 
Los microordenadores del período de 1971 a 1976 a veces son llamados la primera 
generación de microordenadores. Estas máquinas eran para el desarrollo de la ingeniería y 
el uso personal aficionado. En 1975, la tecnología de procesador SOL- 20 fue diseñado, 
consistía en una tarjeta, que incluía todas las partes del sistema informático. El SOL-20 se 
había incorporado en el software EPROM que eliminó la necesidad de filas de switches y 
luces. El MITS Altair jugó un papel instrumental en despertar el interés significativo de 
aficionados, que a su vez condujo a la fundación y el éxito de muchas empresas de 
hardware y software de computadoras personales conocidas como Microsoft y Apple 
Computer. Aunque la propia Altair sólo fue un éxito comercial moderado, ayudó a desatar 
una enorme industria.
Para 1977, la introducción de la segunda generación, conocidos como los "ordenadores 
personales", hizo las microcomputadoras considerablemente más fáciles de usar que sus 
predecesores porque la operación práctica de sus predecesores a menudo exigió profunda 
familiaridad con la electrónica. La posibilidad de conectar un monitor (pantalla) o un 
televisor permite la manipulación visual de texto y números. El lenguaje BASIC, que era 
más fácil de aprender y usar que el lenguaje de máquina puro, se convirtió en una 
característica estándar. Estas características ya eran comunes en los miniordenadores, con 
la que muchos aficionados y los primeros productores estaban familiarizados. 
En 1979, el lanzamiento de la hoja de cálculo VisiCalc (inicialmente para el Apple II) 
primeramente convirtió el microcomputador de un hobby para entusiastas de la informática 
en una herramienta de negocios. Después de la liberación de 1981 por parte de IBM de su 
IBM PC, el ordenador personal se convirtió en término generalmente usado para 
microcomputadoras compatibles con la arquitectura IBM PC (compatible con PC). 
En 2012, el computador con una sola tarjeta del tamaño de un tarjeta de crédito Raspberry 
Pi directamente inspirado por Acorn's BBC Micro 1981 fue lanzado, y contaba con el 
apoyo a la BBC BASIC. 
BASE DE DATOS
……………………………………………………………………………………… 
Tipos de computadoras 
1. Computadora analógica: 
Una computadora analógica u ordenador real es un tipo de computadora que utiliza 
dispositivos electrónicos o mecánicos para modelar el problema que resuelven utilizando un 
tipo de cantidad física para representar otra. 
Para el modelado se utiliza la analogía existente en términos matemáticos de algunas 
situaciones en diferentes campos. Por ejemplo, la que existe entre los movimientos 
oscilatorios en mecánica y el análisis de corrientes alternas en electricidad. Estos dos 
problemas se resuelven por ecuaciones diferenciales y pueden asemejarse términos entre uno 
y otro problema para obtener una solución satisfactoria. 
Usado en contraposición a las computadoras digitales, en los cuales los fenómenos físicos o 
mecánicos son utilizados para construir una máquina de estado finito que es usada después 
para modelar el problema a resolver. Hay un grupo intermedio, los computadores híbridos, 
en los que un computador digital es utilizado para controlar y organizar entradas y salidas 
hacia y desde dispositivos analógicos anexos; por ejemplo, los dispositivos analógicos podrían 
ser utilizados para generar valores iniciales para iteraciones. Así, un ábaco sería un 
computador digital, y una regla de cálculo un computador analógico. 
Los computadores analógicos ideales operan con números reales y son diferenciales, 
mientras que los computadores digitales se limitan a números computables y son algebraicos. 
Esto significa que los computadores analógicos tienen una tasa de dimensión de la 
información (ver teoría de la información), o potencial de dominio informático más grande que 
los computadores digitales (ver teorema de incompletitud de Gödel). Esto, en teoría, permite a 
los computadores analógicos resolver problemas que son indescifrables con computadores 
digitales. 
Los teóricos de la informática suelen usar el término ordenador real (llamado así porque 
opera dentro del conjunto de números reales), para evitar los malentendidos populares sobre 
los computadores analógicos. 
Algunos ejemplos de computadores analógicos son: 
 Predictores de marea 
 Integrador de agua 
 Computador de datos del objetivo para submarinos
 Modelo Hidráulico de la economía del Reino Unido 
 El mecanismo de Antiquitera 
 La regla de cálculo. 
COMPUTADORAS ANALÓGICAS 
Las computadoras analógicas no computan directamente, sino que perciben constantemente 
valores, señales o magnitudes físicas variadas. 
Características de las Computadoras Analógicas 
 Son las computadoras más rápidas. Todas las computadoras son rápidas pero la naturaleza directa 
de los circuitos que la componen las hacen más rápidas. 
 La programación en estas computadoras no es necesaria; las relaciones de cálculo son construidas 
y forman parte de éstas. 
 Son máquinas de propósitos específicos. 
 Dan respuestas aproximadas, ya que están diseñadas para representar electrónicamente algunos 
conjuntos de daros del mundo real, por lo que sus resultados son cercanos a la realidad. 
Estos se utilizan generalmente para supervisar las condiciones del mundo real, tales como Viento, 
Temperatura, Sonido, Movimiento, etc. 
COMPUTADORAS DIGITALES 
Son computadoras que operan contando números y haciendo comparaciones lógicas entre 
factores que tienen valores numéricos. 
Características de las Computadoras Digitales 
 Su funcionamiento está basado en el conteo de los valores que le son introducidos. 
 Este tipo de computadora debe ser programada antes de ser utilizada para algún fin específico. 
 Son máquinas de propósito general; dado un programa, ellas pueden resolver virtualmente todo 
tipo de problemas. 
 Son precisas, proveen exactamente la respuesta correcta a algún problema específico. 
 Estas computadoras tienen una gran memoria interna, donde pueden ser introducidos millones de 
caracteres. 
Estas computadoras son las más utilizadas. En la actualidad el 95% de los computadores utilizados 
son digitales dado a su gran utilidad a nivel comercial, científico y educativo. 
Sistema de enumeración: 
INTRODUCCIÓN
En la informática se usaron muchos sistemas de numeración como lo fue el sistema binario, decimal, octal y 
hexadecimal ya que fueron muy útil para la realización de varios programas pero la tecnología ha avanzado 
tanto que ya estos sistemas están si se puede decir obsoleto. 
Para la realización de estos programas se tenia que realizar algunas conversiones , de lo cual se les explicara 
algunos de ellos 
En cuanto al software libre suele estar disponible gratuitamente en Internet, o a precio del coste de 
la distribución a través de otros medios; sin embargo no es obligatorio que sea así y, aunque conserve 
su carácter de libre, puede ser vendido comercialmente. 
Existen diversos tipos de software libre entre ellos están el colibrí y el lynux. 
1.- SISTEMA DE NUMERACIÓN 
 Sistema Binarios: 
Es el sistema de numeración que utiliza internamente hardware de las computadoras actuales. Se basa en la 
representación de cantidades utilizando los dígitos 1 y 0, por tanto su base es dos (numero de dígitos de 
sistemas). Cada digito de un numero representado en este sistema se representa en BIT (contracción 
de binary digit). 
Suma Binaria: Es semejante a la suma decimal, con la diferencia de que se manejan solo dos dígitos (0 y 1), 
y que cuando el resultado excede de los símbolos utilizados se agrega el exceso (acarreo) a la suma parcial 
siguiente hacia la izquierda. Las tablas de sumar son: 
Tabla del 0 Tabla del 1 
0 + 0 = 0 1 + 0 = 1 
0 + 1 = 1 1 + 1 =10 (0 con acarreo 1) 
Ejemplo: Sumar los números binarios 100100 (36) y 10010 (18) 
1 0 0 1 0 0………………………36 
1 0 0 1 0…………………….+ 18 
1 1 0 1 1 0………………………54 
Obsérvese que no hemos tenido ningún acarreo en las sumas parciales. 
Ejemplo: Sumar 11001 (25) y 10011 (19) 
Resta Binaria: Es similar a la decimal, con la diferencia de que se manejan solo dos dígitos y teniendo en 
cuenta que al realizar las restas parciales entre dos dígitos de idéntica posiciones, una del minuendo y otra del 
sustraendo, si el segundo excede al segundo, se sustraes una unidad del digito de mas a la izquierda en el 
minuendo (si existe y vale 1), convirtiéndose este ultimo en 0 y equivaliendo la unidad extraída a 1*2 en el 
minuendo de resta parcial que estamos realizando. Si es cero el digito siguiente a la izquierda, se busca en 
los sucesivos. Las tablas de Resta son: 
Tabla del 0 Tabla del 1 
0 - 0 = 0 1 - 0 = 1 
0 - 1 = no cabe 1 - 1 = 0 
Ejemplo: 
1 1 1 1 1 1 
- 1 0 1 0 1 0 
0 1 0 1 0 1 
Multiplicación binaria: Se realiza similar a la multiplicación decimal salvo que la suma final de 
los productos se hacen en binarios. Las tableas de Multiplicar son: 
Tabla del cero (0) Tabla del uno (1) 
0 * 0 = 0 1 * 0 = 0 
0 * 1 = 0 1 * 1 = 1
Ejemplo: 
División Binaria: Al igual que las operaciones anteriores, se realiza de forma similar a la división decimal 
salvo que las multiplicaciones y restas Internas al proceso de la división se hacen en binario. 
Ejemplo: 
 Sistema Octal: Es sistema de numeración cuya base es 8 , es decir, utiliza 8 símbolos para la representación 
de cantidades . Estos sistemas es de los llamados posiciónales y la posición de sus cifras se mide con la 
relación a la coma decimal que en caso de no aparecer se supone implícitamente a la derecha del numero. 
Estos símbolos son: 
0 1 2 3 4 5 6 7 
 Sistema Decimal: Es uno de los sistema denominado posiciónales, utilizando un conjunto de símbolos cuyo 
significado depende fundamentalmente de su posición relativa al símbolo, denominado coma (,) decimal que 
en caso de ausencia se supone colocada a la derecha. Utiliza como base el 10, que corresponde al número 
del símbolo que comprende para la representación de cantidades; estos símbolos son: 
0 1 2 3 4 5 6 7 8 9 
 Sistema Hexadecimal: Es un sistema posicional de numeración en el que su base es 16, por tanto, utilizara 
16 símbolos para la representación de cantidades. Estos símbolos son: 
0 1 2 3 4 5 6 7 8 9 A B C D E F 
SIMBOLOS VALOR ABSOLUTO 
A 10 
B 11 
C 12 
D 13 
E 14 
F 15 
2.- CONVERSIONES NUMÉRICAS (Explicación y Ejemplo): 
 Conversión Decimal - Binario:
La forma mas simple es dividir sucesivamente el numero decimal y los cocientes que se van obteniendo por 2 
hasta que el cociente en una de las divisiones se hagan cero. 
Ejemplo: Convertir el numero decimal 10 binario 
 Conversión binaria decimal: 
El método consiste en rescribir el numero binario en posición vertical de tal forma que la parte de la derecha 
que en la zona superior y la parte de la izquierda quede en la parte inferior. Se suma el digito al producto de 
dos con el resultado de la operación anterior, teniendo en cuenta que para el primer digito el resultado de la 
operación es "0". 
Ejemplo: Convertir en decimal el numero binario 101011 
¿Qué son las redes sociales? 
Son sitios web que ofrecen servicios y funcionalidades de comunicación 
diversospara mantener en contacto a los usuarios de la red. Se basan en un software 
especialque integra numerosas funciones individuales: blogs, wikis, foros, chat, 
mensajería,etc. en una misma interfaz y que proporciona la conectividad entre los 
diversosusuarios de la red. 
• 
Son redes de relaciones personales, también llamadas comunidades, 
queproporcionan sociabilidad, apoyo, información y un sentido de pertenencia 
eidentidad social. 
• 
Son grupos de personas con algunos intereses similares, que se comunican 
através de proyectos. 
• 
Existe un cierto sentido de pertenencia a un grupo con una cultura común: 
secomparten unos valores, unas normas y un lenguaje en un clima de confianza. 
•
Se utilizan las mismas infraestructuras telemáticas, generalmente basadas 
en losservicios de software social, que permite comunicaciones de uno a todos y 
deuno a uno. 
• 
Algunos de sus miembros realizan actividades para el mantenimiento del grupo. 
• 
Se realizan actividades que propician interacciones entre los integrantes 
queproporcionan ayuda emotiva y cognitiva. 
Tipos de redes sociales 
Existen muchos tipos clasificadas según su propósito y ámbito. 
Sin embargo,podemos hablar de tres grandes categorías:1.Redes personales. Se 
componen de cientos o miles de usuarios en los que cadauno tiene su pequeño 
“espacio” con su información, sus fotos, su música, etc. Ycada uno se puede 
relacionar con los demás de múltiples maneras, aunquetodas ellas involucran el 
uso de Internet de una u otra forma. Facebook es unared personal.2.Redes 
temáticas. Son similares a las anteriores aunque se diferencian por elhecho de 
que suelen centrarse en un tema en concreto y proporcionan lasfuncionalidades 
necesarias para el mismo. Por ejemplo, una red de cine, una deinformática, de 
algún tipo de deporte, etc.3.Redes profesionales. Son una variedad especial de las 
anteriores, dedicadasexclusivamente al ámbito laboral, en todas sus vertientes. 
Pueden poner encontacto a aquellos que ofrecen trabajo con los que lo buscan, 
crear grupos deinvestigación, etc 
REDES SOCIALES: 
¿Qué tipo de redes sociales existen y cuáles son los diferentes usos que tienen? 
Podemos hablar de que hay 2 tipos de redes sociales que nos podemos encontrar: Analógicas o Redes sociales Off Line Y 
Digitales o Redes sociales On Line, a continuación explicaremos brevemente de que trata cada una de ellas y luego nos 
centraremos en la que más nos importa que en este caso son las Redes Sociales On Line. 
Redes sociales Off Line: son aquellas en las que las relaciones sociales, con independencia de su origen, se desarrollan 
sin mediación de aparatos o sistemas electrónicos. Un ejemplo de red social analógica lo encontramos en la Sentencia 
núm. 325/2008 de 22 mayo de la Audiencia Provincial de Valencia (Sección 10ª) que la cita en un caso de adopción y 
acogimiento de menores, indicando que el "matrimonio [...] cuenta con una amplia red social y familiar y gozan de 
buena salud […]". 
Redes sociales On Line: son aquellas en las cuales se necesita que en su origen y en su desarrollo aparezcan los medios 
electrónicos. A continuación enumeraremos varias clasificaciones de redes sociales para sus usos en la actualidad. 
REDES SOCIALES ON LINE 
Por su público objetivo y su temática: 
Redes sociales Horizontales: Son aquellas dirigidas a todo tipo de usuario y sin una temática definida. Se basan en 
una estructura de celdillas permitiendo la entrada y participación libre y genérica sin un fin definido, distinto del de 
generar masa. Los ejemplos más representativos del sector son Facebook o Twitter. 
Redes sociales Verticales: Están concebidas sobre la base de un eje temático agregador. Su objetivo es el de congregar 
en torno a una temática definida a un grupo de personas con las mismas inquietudes sobre el tema a tratar. 
Dependiendo de la especialización, podemos encontrar:
Redes sociales Verticales Profesionales: dirigidas para tratar temas laborales entre los usuarios de estas. Por 
ejemplo: Xing,.. 
Redes sociales Verticales de Ocio: el objetivo de estas es reunir gente con aficiones deportivas, de 
ocio, videojuegos,…Por ejemplo podemos encontrar las Futmi (sobre futbol), Moterous, Dogster,… 
Redes sociales Verticales Mixtas: Ofrecen a sus usuarios y empresas un entorno específico para desarrollar 
actividades tanto profesionales como personales. Por ejemplo: Yuglo, Unience,… 
Por el sujeto principal de la relación: 
Redes sociales Humanas: Son aquellas que centran su atención en fomentar las relaciones entre personas uniendo 
individuos según su perfil social y en función de sus gustos, aficiones o actividades. Ejemplos de estas son Tuenti, 
Koornk o Dopprl. 
Redes sociales de Contenidos: Las relaciones se desarrolla uniendo perfiles a través de contenido publicado, los objetos 
que posee el usuario o los archivos que se encuentran en su ordenador. Ejemplos de estas redes sociales son Flickr, 
Scribd o Fileride 
Redes sociales de Inertes: Conforman un sector novedoso entre las redes sociales. Su objeto es unir marcas, 
automóviles y lugares. Entre estas redes sociales destacan las de difuntos, siendo éstos los sujetos principales de la red. 
El ejemplo más destacable sería Respectance. 
IMAGENES
Andy
Andy
Andy
Andy
Andy

Más contenido relacionado

PDF
Revista
PDF
Informática2
PPTX
Bachillerato oficial álvaro obregón "Computacion"
DOCX
Ciencias de la computación
DOCX
Informatica2
DOCX
Ntics
PPTX
Ciencias de la computación
ODP
Presentación
Revista
Informática2
Bachillerato oficial álvaro obregón "Computacion"
Ciencias de la computación
Informatica2
Ntics
Ciencias de la computación
Presentación

La actualidad más candente (18)

DOCX
Practica de word 1 bimestre
DOCX
Computación
PDF
Revista pdf computacion
PPTX
Ciencias de la Computación
DOCX
Computación
PDF
Las ciencias de la computación
PPTX
Alfabetizacion informatica
PPTX
PPTX
Las computadoras
DOCX
Practica de word
DOCX
Ciencias de la computación
PPTX
Computacion
PPT
INTRODUCCIÓN A LAS CIENCIAS DE LA COMPUTACIÓN.
DOCX
Computacion
DOCX
Las ciencias de la computación o ciencias computacion
PDF
Universidad tecnica particular de loja
DOCX
Práctica de word
PDF
Informatica
Practica de word 1 bimestre
Computación
Revista pdf computacion
Ciencias de la Computación
Computación
Las ciencias de la computación
Alfabetizacion informatica
Las computadoras
Practica de word
Ciencias de la computación
Computacion
INTRODUCCIÓN A LAS CIENCIAS DE LA COMPUTACIÓN.
Computacion
Las ciencias de la computación o ciencias computacion
Universidad tecnica particular de loja
Práctica de word
Informatica
Publicidad

Similar a Andy (19)

PPTX
PPTX
PPTX
ODP
Computacion*
PPTX
Computacion basica
DOCX
Computacion
DOCX
Computacion
DOCX
PPT
Las computadoras
PPT
Las computadoras
PPT
Las computadoras
PPT
Las computadoras
PPT
Computacion y informatica 1 d carrión poma
PPTX
Las ciencias de la computación
PPTX
Ciencias de la computacion
PPTX
computacion
PPTX
computación
ODP
Prersentacon
Computacion*
Computacion basica
Computacion
Computacion
Las computadoras
Las computadoras
Las computadoras
Las computadoras
Computacion y informatica 1 d carrión poma
Las ciencias de la computación
Ciencias de la computacion
computacion
computación
Prersentacon
Publicidad

Andy

  • 1. COMPUTACION Las ciencias de la computación o ciencias computacionales son aquellas que abarcan las bases teóricas de la información y la computación, así como su aplicación en sistemas computacionales.1 2 3 Existen diversos campos o disciplinas dentro de las ciencias de la computación o ciencias computacionales; algunos resaltan los resultados específicos del cómputo (como los gráficos por computadora), mientras que otros (como la teoría de la complejidad computacional) se relacionan con propiedades de los algoritmos usados al realizar cómputos y otros se enfocan en los problemas que requieren la implementación de cómputos. Por ejemplo, los estudios de la teoría de lenguajes de programación describen un cómputo, mientras que la programación de computadoras aplica lenguajes de programación específicos para desarrollar una solución a un problema computacional específico. La informática se refiere al tratamiento automatizado de la información de una forma útil y oportuna. No se debe confundir el carácter teórico de esta ciencia con otros aspectos prácticos como el uso de Internet. Según Peter J. Denning, la cuestión fundamental en que se basa la ciencia de la computación es: "¿Qué puede ser (eficientemente) automatizado?"4 Índic  1 Historia  2 Campos de las ciencias de la computación o 2.1 Fundamentos matemáticos o 2.2 Teoría de la computación o 2.3 Algoritmos y estructuras de datos o 2.4 Lenguajes de programación y compiladores o 2.5 Bases de datos o 2.6 Sistemas concurrentes, paralelos y distribuidos o 2.7 Inteligencia artificial o 2.8 Gráficos por computador o 2.9 Computación científica  3 Relación con otros campos  4 Véase también  5 Referencias  6 Bibliografía  7 Enlaces externos Historia[editar] La historia de la ciencia de la computación antecede a la invención del computador digital moderno. Antes de la década de 1920, el término computador se refería a un ser humano que realizaba cálculos.5 Los primeros investigadores en lo que después se convertiría las ciencias de la computación estaban interesados en la cuestión de la computabilidad: qué cosas pueden ser computadas por un ser humano que simplemente siga una lista de instrucciones con lápiz y papel, durante el tiempo que sea necesario, con ingenuidad y sin conocimiento previo del problema. Parte de la motivación para este trabajo era el
  • 2. desarrollar máquinas que computaran y que pudieran automatizar el tedioso y falible trabajo de la computación humana. Durante la década de 1940, conforme se desarrollaban nuevas y más poderosas máquinas para computar, el término computador se comenzó a utilizar para referirse a las máquinas y ya no a sus antecesores humanos. Conforme iba quedando claro que las computadoras podían usarse para más cosas que solamente cálculos matemáticos, el campo de la ciencia de la computación se fue ampliando para estudiar a la computación (informática) en general. La ciencia de la computación comenzó entonces a establecerse como una disciplina académica en la década de 1960, con la creación de los primeros departamentos de ciencia de la computación y los primeros programas de licenciatura (Denning 2000). Campos de las ciencias de la computación[editar] Fundamentos matemáticos[editar] Criptografía Consta de algoritmos para proteger datos privados, incluido el cifrado. Teoría de grafos Recursos elementales para las estructuras de almacenamiento de datos y para los algoritmos de búsqueda. Lógica matemática La lógica matemática estudia los sistemas formales en relación con el modo en el que se codifican nociones intuitivas de objetos matemáticos como conjuntos, números, demostraciones y computación. Teoría de tipos Análisis formal de los tipos de datos y el uso de estos para entender las propiedades de los programas, en particular la seguridad de estos. Teoría de la computación[editar] Teoría de la computación Teoría de autómatas Teoría de la computabilidad Teoría de la complejidad computacional Límites fundamentales (en especial de espacio en memoria y tiempo) de los cómputos. Algoritmos y estructuras de datos[editar] Análisis de algoritmos Algoritmos Procesos formales usados para los cómputos, y eficiencia de estos procesos. Estructuras de datos Organización y manipulación de los datos Lógica y computabilidad estudio de diferentes tipos de lógicas, su poder expresivo, decidibilidad, aplicaciones. Especificación
  • 3. desarrollo de métodos para definir formalmente (matemática y lógicamente) el comportamiento esperado de un algoritmo, para luego probar terminación y correctitud. Lenguajes de programación y compiladores[editar] Compiladores Formas de traducir programas computacionales, usualmente a partir de lenguajes de alto nivel a lenguajes de bajo nivel. Teoría de lenguajes de programación Lenguajes formales para expresar algoritmos y las propiedades de estos lenguajes. Bases de datos[editar] Bases de datos Estructura de datos Minería de datos Estudio de algoritmos para buscar y procesar información en documentos y bases de datos; muy relacionada con la adquisición de información. Sistemas concurrentes, paralelos y distribuidos[editar] Programación concurrente Teoría y práctica de cómputos simultáneos y computación interactiva. Redes de computadoras Algoritmos y protocolos para comunicar eficientemente datos a través de largas distancias, incluye también la corrección de errores. Cómputo paralelo Computación con el uso de múltiples computadoras y múltiples procesadores en paralelo. Sistemas distribuidos Sistemas que utilizan múltiples procesadores repartidos en una gran área geográfica. Inteligencia artificial[editar] Inteligencia artificial (IA) La implementación y estudio de sistemas que exhiben (ya sea por su comportamiento o aparentemente) una inteligencia autónoma o comportamiento propio, a veces inspirado por las características de los seres vivos. Las ciencias de la computación están relacionadas con la IA, ya que el software y las computadoras son herramientas básicas para su desarrollo y progreso. Razonamiento automatizado Robótica Algoritmos para controlar el comportamiento de los robots. Visión por computador Algoritmos para extraer objetos tridimensionales de una imagen bidimensional. Aprendizaje automático Gráficos por computador[editar]
  • 4. Computación gráfica Algoritmos tanto para generar sintéticamente imágenes visuales como para integrar o alterar la información visual y espacial tomada del mundo real. Procesamiento digital de imágenes Por ejemplo, para sensores remotos. Geometría computacional Por ejemplo, algoritmos veloces para seleccionar solo los puntos visibles en un poliedro visto desde cierto ángulo, usado en motores 3D. Computación científica[editar] Computación científica Bioinformática Computación cuántica Paradigma de computación basado en la mecánica cuántica Neurociencia computacional Relación con otros campos[editar] Por ser una disciplina reciente, existen varias definiciones alternativas para la ciencia de la computación. Esta puede ser vista como una forma de ciencia, matemáticas o una nueva disciplina que no puede ser categorizada siguiendo los modelos actuales. Las ciencias de la computación frecuentemente se cruzan con otras áreas de investigación, tales como la física y la lingüística. Pero es con las matemáticas con las que se considera que tiene un grado mayor de relación. Eso es evidenciado por el hecho de que los primeros trabajos en el área fueran fuertemente influenciados por matemáticos como Kurt Gödel y Alan Turing. En la actualidad sigue habiendo un intercambio de ideas útil entre ambos campos en áreas como la lógica matemática, la teoría de categorías, la teoría de dominios, el álgebra y la geometría. Otro punto a destacar es que, a pesar de su nombre, las ciencias de la computación raramente involucran el estudio mismo de las máquinas conocidas como computadoras. De hecho, el renombrado científico Edsger Dijkstra es muy citado por la frase "Las ciencias de la computación están tan poco relacionadas con las computadoras como la astronomía con los telescopios." Debido a esto, se propuso buscar un nombre definido para esta ciencia emergente, que evitara la relación con las computadoras. Una primera propuesta fue la de Peter Naur, que acuñó el término datología, para reflejar el hecho de que la nueva disciplina se ocupaba fundamentalmente del tratamiento de los datos, independientemente de las herramientas de dicho tratamiento, fueran computadoras o artificios matemáticos. La primera institución científica en adoptar la denominación fue el Departamento de Datología de la Universidad de Copenhague, fundado en 1969, y fue el propio Peter Naur el primer profesor de datología. Esta denominación se utiliza principalmente en los países escandinavos. Asimismo, en los primeros momentos, un gran número de términos aparecieron asociados a los practicantes de la computación. En esta lista se pueden ver los sugeridos en las revistas y comunicados de la Association for
  • 5. Computer Machinery: turingeniero, turologista, hombre de los diagramas de flujo (flow-charts- man), metamatemático aplicado y epistemólogo aplicado. Tres meses más tarde se sugirió el término «contólogo», seguido de «hipólogo» al año siguiente.[cita requerida] También se sugirió el término «compútica» para la disciplina.[cita requerida] «Informática» era, sin embargo, el término más frecuentemente usado en toda Europa.[cita requerida] El diseño y desarrollo de computadoras y sistemas computacionales generalmente se considera un campo reclamado por disciplinas ajenas a las ciencias de la computación. Por ejemplo, el estudio del hardware suele considerarse parte de la ingeniería informática, mientras que el estudio de sistemas computacionales comerciales y su desarrollo suelen denominarse tecnologías de la información (TI) o sistemas de información. Sin embargo, hay una estrecha comunicación de ideas entre las distintas disciplinas relacionadas con las computadoras. La ciencia de la computación a menudo recibe críticas desde otros estamentos que la consideran escasamente rigurosa y científica. Esta opinión se plasma en la expresión: "La ciencia es a las ciencias de la computación como la hidrodinámica a la fontanería", atribuida a Stan Kelly-Bootle y otros afines. La investigación en ciencias de la computación también suele relacionarse con otras disciplinas, como la ciencia cognitiva, la física (véase computación cuántica), la lingüística, etcétera. La relación entre las ciencias de la computación y la ingeniería de software es un tema muy discutido, por disputas sobre lo que realmente significa el término ingeniería de software y sobre cómo se define a las ciencias de la computación. Algunas personas creen que la ingeniería de software sería un subconjunto de las ciencias de la computación. Otras, tomando en cuenta la relación entre otras disciplinas científicas y de la ingeniería, creen que el principal objetivo de las ciencias de la computación sería estudiar las propiedades del cómputo en general, mientras que el objetivo de la ingeniería de software sería diseñar cómputos específicos para lograr objetivos prácticos, con lo que se convertiría en disciplinas diferentes. Este punto de vista es el que sostiene, por ejemplo, Parnas (1998). Incluso hay otros que sostienen que no podría existir una ingeniería de software. Los aspectos académicos, políticos y de financiamiento en las áreas de ciencias de la computación tienden a verse influidos drásticamente por el criterio del departamento encargado de la investigación y la educación en cada universidad, que puede estar orientado a la matemática o a la ingeniería. Los departamentos de ciencias de la computación orientados a la matemática suelen alinearse del lado de la computación científica y las aplicaciones de cálculo numérico. El término computación científica, que no debe confundirse con ciencia de la computación, designa a todas aquellas prácticas destinadas a modelar, plantear experimentos y validar teorías científicas sirviéndose de medios computacionales. En estos casos la computación es una mera herramienta y el esfuerzo se dirige a avanzar en los campos objetivo (física, biología, mecánica de fluidos, radiotransmisión,...), más que en la propia ciencia de la computación.
  • 6. Finalmente, el público en general algunas veces confunde la ciencia de la computación con áreas vocacionales que trabajan con computadoras o piensan que trata acerca de su propia experiencia con las computadoras, lo cual suele incluir actividades como los juegos, la navegación web y el procesamiento de texto. Sin embargo, el punto central de la ciencia de la computación va más allá de entender las propiedades de los programas que se emplean para implementar aplicaciones de software como juegos y navegadores web, y utiliza ese entendimiento para crear nuevos programas o mejorar los existentes.6 Informática De Wikipedia, la enciclopedia libre Saltar a: navegación, búsqueda La informática es una ciencia que estudia métodos, procesos, técnicas, con el fin de almacenar, procesar y transmitir información y datos en formato digital. La informática se ha desarrollado rápidamente a partir de la segunda mitad del siglo XX, con la aparición de tecnologías tales como el circuito integrado, Internet y el teléfono móvil. En 1957 Karl Steinbuch añadió la palabra alemana Informatik en la publicación de un documento denominado Informatik: Automatische Informationsverarbeitung (Informática: procesamiento automático de información). En ruso, Alexander Ivanovich Mikhailov fue el primero en utilizar informatik con el significado de «estudio, organización, y la diseminación de la información científica», que sigue siendo su significado en dicha lengua.[cita requerida]. En inglés, la palabra Informatics fue acuñada independiente y casi simultáneamente por Walter F. Bauer, en 1962, cuando Bauer cofundó la empresa denominada «Informatics General, Inc.». Dicha empresa guardó el nombre y persiguió a las universidades que lo utilizaron, forzándolas a utilizar la alternativa computer science. La Association for Computing Machinery, la mayor organización de informáticos del mundo, se dirigió a Informatics General Inc. para poder utilizar la palabra informatics en lugar de computer machinery, pero la empresa se negó. Informatics General Inc. cesó sus actividades en 1985, pero para esa época el nombre de computer science estaba plenamente arraigado. Actualmente los angloparlantes utilizan el término computer science, traducido a veces como «Ciencias de la computación», para designar tanto el estudio científico como el aplicado; mientras que designan como information technology (o data processing), traducido a veces como «tecnologías de la información», al conjunto de tecnologías que permiten el tratamiento y uso automatizado de información. Índice [ocultar]
  • 7.  1 Etimología  2 Orígenes  3 Sistemas de tratamiento de la información  4 Véase también  5 Referencias  6 Enlaces externos Etimología El vocablo informática proviene del alemán informatik acuñado por Karl Steinbuch en 1957. Pronto, adaptaciones locales del término aparecieron en francés, italiano, español, rumano, portugués y holandés, entre otras lenguas, refiriéndose a la aplicación de las computadoras para almacenar y procesar la información. El término es una contracción de las palabras information y automatic (información automática). En lo que hoy día conocemos como informática confluyen muchas de las técnicas, procesos y máquinas (computadoras) que el hombre ha desarrollado a lo largo de la historia para apoyar y potenciar su capacidad de memoria, de pensamiento y de comunicación. En el Diccionario de la lengua española de la Real Academia Española se define informática como: Conjunto de conocimientos científicos y técnicas que hacen posible el tratamiento automático de la información por medio de computadoras.1 Orígenes En los inicios del proceso de información, con la informática sólo se facilitaban los trabajos repetitivos y monótonos del área administrativa. La automatización de esos procesos trajo como consecuencia directa una disminución de los costos y un incremento en la productividad. En la informática convergen los fundamentos de las ciencias de la computación, la programación y metodologías para el desarrollo de software, la arquitectura de computadores, las redes de computadores, la inteligencia artificial y ciertas cuestiones relacionadas con la electrónica. Se puede entender por informática a la unión sinérgica de todo este conjunto de disciplinas. Esta disciplina se aplica a numerosas y variadas áreas del conocimiento o la actividad humana, como por ejemplo: gestión de negocios, almacenamiento y consulta de información, monitorización y control de procesos, industria, robótica, comunicaciones, control de transportes, investigación, desarrollo de juegos, diseño computarizado, aplicaciones / herramientas multimedia, medicina, biología, física, química, meteorología, ingeniería, arte, etc. Puede tanto facilitar la toma de decisiones a nivel gerencial (en una empresa) como permitir el control de procesos críticos. Actualmente es difícil concebir un área que no use, de alguna forma, el apoyo de la informática. Ésta puede cubrir un enorme abanico de funciones, que van desde las más simples cuestiones domésticas hasta los cálculos científicos más complejos. Entre las funciones principales de la informática se cuentan las siguientes:  Creación de nuevas especificaciones de trabajo  Desarrollo e implementación de sistemas informáticos  Sistematización de procesos  Optimización de los métodos y sistemas informáticos existentes  Facilita la automatización de datos
  • 8. Sistemas de tratamiento de la información Los sistemas computacionales, generalmente implementados como dispositivos electrónicos, permiten el procesamiento automático de la información. Conforme a ello, los sistemas informáticos deben realizar las siguientes tres tareas básicas:  o Entrada: captación de la información. Normalmente son datos y órdenes ingresados por los usuarios a través de cualquier dispositivo de entrada conectado a la computadora. o Proceso: tratamiento de la información. Se realiza a través de programas y aplicaciones diseñadas por programadores que indican de forma secuencial cómo resolver un requerimiento. o Salida: transmisión de resultados. A través de los dispositivos de salida los usuarios pueden visualizar los resultados que surgen del procesamiento de los datos.  Sistemas de mando y control, son sistemas basados en la mecánica y motricidad de dispositivos que permiten al usuario localizar, dentro de la logística, los elementos que se demandan. Están basados en la electricidad, o sea, no en el control del flujo del electrón, sino en la continuidad o discontinuidad de una corriente eléctrica, si es alterna o continua o si es inducida, contrainducida, en fase o desfase (ver periférico de entrada).  Sistemas de archivo, son sistemas que permiten el almacenamiento a largo plazo de información que no se demandará por un largo periodo de tiempo. Estos sistemas usan los conceptos de biblioteca para localizar la información demandada.  Código ASCII, Es un método para la correspondencia de cadenas de bits permitiendo de esta forma la comunicación entre dispositivos digitales así como su proceso y almacenamiento, en la actualidad todos los sistemas informáticos utilizan el código ASCII para representar textos, gráficos, audio e infinidad de información para el control y manipulación de dispositivos digitales. Los virus informáticos son programas que se introducen en una computadora, sin conocimiento del usuario, para ejecutar en él acciones no deseadas. Estas acciones son:  Unirse a un programa.  Mostrar mensajes o imágenes, generalmente molestas.  Ralentizar o bloquear la computadora.  Destruir la información almacenada.  Reducir el espacio en el disco. Los tipos de virus informáticos que existen son:  Gusanos: recogiendo información, contraseñas, para enviarla a otro.  Bombas lógicas o de tiempo: que se activan cuando sucede algo especial, como puede ser una fecha.  Troyanos: hace que las computadoras vayan más lentos.  Virus falsos: información falsa. Estos virus se pueden prevenir:
  • 9.  Haciendo copias de seguridad.  Copias de programas originales.  Rechazo de copias de origen dudoso.  Uso de contraseñas.  Uso de antivirus. Sistema De Wikipedia, la enciclopedia libre Saltar a: navegación, búsqueda Para el arte marcial ruso, véase Systema. Para otros usos de este término, véase Sistema (desambiguación). Un sistema (del latín systēma, proveniente del griego σύστημα) es un objeto complejo cuyos componentes se relacionan con al menos algún otro componente; puede ser material o conceptual.1 Todos los sistemas tienen composición, estructura y entorno, pero sólo los sistemas materiales tienen mecanismo, y sólo algunos sistemas materiales tienen figura (forma). Según el sistemismo, todos los objetos son sistemas o componentes de otro sistema.2 Por ejemplo, un núcleo atómico es un sistema material físico compuesto de protones y neutrones relacionados por la interacción nuclear fuerte; una molécula es un sistema material químico compuesto de átomos relacionados por enlaces químicos; una célula es un sistema material biológico compuesto de orgánulos relacionados por enlaces químicos no-covalentes y rutas metabólicas; una corteza cerebral es un sistema material biológico compuesto de neuronas relacionadas por potenciales de acción y neurotransmisores; un ejército es un sistema material social y parcialmente artificial compuesto de personas y artefactos relacionados por el mando, el abastecimiento, la comunicación y la guerra; el anillo de los números enteros es un sistema conceptual algebraico compuesto de números positivos, negativos y el cero relacionados por la suma y la multiplicación; y una teoría científica es un sistema conceptual lógico compuesto de hipótesis, definiciones y teoremas relacionados por la correferencia y la deducción (implicación). Índice [ocultar]  1 Sistemas conceptuales  2 Sistemas materiales o 2.1 Análisis CEEM  3 Véase también  4 Referencias Sistemas conceptuales[editar] Un sistema conceptual, sistema formal o sistema ideal es un constructo compuesto por conceptos de cuatro diferentes tipos:
  • 10. 1. Individuos, por ejemplo , 2. Predicados, relatores o atributos, ejemplo : ; 3. conjuntos, por ejemplo ; y 4. operadores, por ejemplo (el hamiltoniano cuántico). Así, los conceptos no son sistemas conceptuales, sino sólo componentes de sistemas conceptuales. Sí son sistemas conceptuales 1. Los esquemas proposicionales, por ejemplo ; 2. Las proposiciones, por ejemplo ; 3. Las estructuras algebraicas, por ejemplo ; y 4. Los contextos, por ejemplo una teoría. Sistemas materiales[editar] Artículo principal: Sistema físico Un sistema material, sistema concreto o sistema real es una cosa compuesta (por dos o más cosas relacionadas) que posee propiedades que no poseen sus componentes, llamadas propiedades emergentes; por ejemplo, la tensión superficial es una propiedad emergente que poseen los líquidos pero que no poseen sus moléculas componentes. Al ser cosas, los sistemas materiales poseen las propiedades de las cosas, como tener energía (e intercambiarla), tener historia, yuxtaponerse con otras cosas y ocupar una posición en el espacio tiempo. El esfuerzo por encontrar leyes generales del comportamiento de los sistemas materiales es el que funda la teoría de sistemas y, más en general, el enfoque de la investigación científica a la que se alude como sistemismo, sistémica o pensamiento sistémico, en cuyo marco se encuentran disciplinas y teorías como la cibernética, la teoría de la información, la teoría del caos, la dinámica de sistemas y otras. Análisis CEEM[editar] El análisis más sencillo del concepto de sistema material es el que incluye los conceptos de composición, entorno, estructura y mecanismo (CEEM, por sus siglas). La composición de un sistema es el conjunto de sus partes componentes. El entorno o ambiente de un sistema es el conjunto de las cosas que actúan sobre los componentes del sistema, o sobre las que los componentes del sistema actúan. La estructura interna o endoestructura de un sistema es el conjunto de relaciones entre los componentes del sistema. La estructura externa o exoestructura de un sistema es el conjunto de relaciones entre los componentes del sistema y los elementos de su entorno. La estructura total de un sistema es la unión de su exoestructura y su endoestructura. Las relaciones más importantes son los vínculos o enlaces, aquellas que afectan a los componentes relacionados; las relaciones espaciotemporales no son vínculos. El mecanismo de un sistema es el conjunto de procesos internos que lo hacen cambiar algunas propiedades, mientras que conserva otras.
  • 11. Además, la frontera de un sistema es el conjunto de componentes que están directamente vinculados (sin nada interpuesto) con los elementos de su entorno. La frontera de un sistema físico puede ser rígida o móvil, permeable o impermeable, conductor térmico (adiabática) o no, conductor eléctrico o no, e incluso puede ser aislante de frecuencias de audio. Además, algunos sistemas tienen figura (forma); pero no todo sistema con frontera tiene necesariamente figura. Si hay algún intercambio de materia entre un sistema físico y su entorno a través de su frontera, entonces el sistema es abierto; de lo contrario, el sistema es cerrado. Si un sistema cerrado tampoco intercambia energía, entonces el sistema es aislado. En rigor, el único sistema aislado es el universo. Si un sistema posee la organización necesaria para controlar su propio desarrollo, asegurando la continuidad de su composición y estructura (homeostasis) y la de los flujos y transformaciones con que funciona (homeorresis) —mientras las perturbaciones producidas desde su entorno no superen cierto grado—, entonces el sistema es autopoyético. Sistema informático De Wikipedia, la enciclopedia libre Saltar a: navegación, búsqueda Este artículo o sección necesita referencias que aparezcan en una publicación acreditada, como revistas especializadas, monografías, prensa diaria o páginas de Internet fidedignas. Este aviso fue puesto el 3 de marzo de 2014. Puedes añadirlas o avisar al autor principal del artículo en su página de discusión pegando: {{subst:Aviso referencias|Sistema informático}} ~~~~ Sistema informático. Un sistema informático es un sistema que permite almacenar y procesar información; como todo sistema, es el conjunto de partes interrelacionadas: en este caso, hardware, software y recursos humanos. El hardware incluye computadoras o cualquier tipo de dispositivo electrónico inteligente, que consisten en procesadores, memoria, sistemas de
  • 12. almacenamiento externo, etc. El software incluye al sistema operativo, firmware y aplicaciones, siendo especialmente importante los sistemas de gestión de bases de datos. Por último el soporte humano incluye al personal técnico que crean y mantienen el sistema (analistas, programadores, operarios, etc.) y a los usuarios que lo utilizan. Índice [ocultar]  1 Desarrollo de sistemas informáticos  2 Estructura  3 Clasificación  4 Referencias  5 Véase también Desarrollo de sistemas informáticos[editar] Los sistemas informáticos pasan por diferentes fases en su ciclo de vida, desde la captura de requisitos hasta el mantenimiento. En la actualidad se emplean numerosos sistemas informáticos en la administración pública. Estructura[editar] Los sistemas informáticos suelen estructurarse en Subsistemas:  Subsistema físico: asociado al hardware. Incluye entre otros elementos la CPU, memoria principal, la placa base, periféricos de entrada y salida, etc.  Subsistema lógico: asociado al software y la arquitectura. Incluye al sistema operativo, el firmware, las aplicaciones y las bases de datos. Clasificación[editar] Los S.I. pueden clasificarse con base a numerosos criterios. Por supuesto las clasificaciones no son estancas y es común encontrar sistemas híbridos que no encajen en una única categoría. Por su uso pueden ser:  De uso general.  De uso específico. Por el paralelismo de los procesadores, que puede ser:  SISD: Single Instruction Single Data  SIMD: Single Instruction Multiple Data  MIMD: Multiple Instruction Multiple Data Por el tipo de ordenador utilizado en el sistema
  • 13.  Estaciones de trabajo (Workstations)  Terminales ligeros (Thin clients)  Microordenadores (por ejemplo ordenadores personales)  Miniordenadores (servidores pequeños)  Macroordenadores (servidores de gran capacidad)  Superordenadores Por la arquitectura  Sistema aislado  Arquitectura cliente-servidor  Arquitectura de 3 capas  Arquitectura de n capas  Servidor de aplicaciones  Monitor de teleproceso o servidor de transacciones  arquitectura de 4 capas IBM IBM De Wikipedia, la enciclopedia libre Saltar a: navegación, búsqueda Este artículo o sección necesita ser wikificado con un formato acorde a las convenciones de estilo. Por favor, edítalo para que las cumpla. Mientras tanto, no elimines este aviso puesto el 18 de diciembre de 2013. También puedes ayudar wikificando otros artículos o cambiando este cartel por uno más específico. Para otros usos de este término, véase IBM (desambiguación). International Business Machines
  • 14. Acrónimo IBM Tipo Sociedad privada (NYSE: IBM), Componente del Promedio Industrial Dow Jones Industria Informática Fundación 16 de junio de 1911 Fundador(es) Thomas J. Watson Sede Armonk, Nueva York Estados Unidos Ámbito Mundial Administración Ginni Rometty (Administrador, presidente, y director ejecutivo) Productos Hardware, software, consultoría Ingresos $99.870 millones (2010) 1 Beneficio de explotación $19.273 millones (2010) 1 Beneficio neto $14.833 millones (2010) 1 Capital social $23.172 millones (2010) 1 1 Empleados 426.751 (2010) Sitio web IBM.com
  • 15. International Business Machines (IBM) (NYSE: IBM) es una empresa multinacional estadounidense de tecnología y consultoría con sede en Armonk, Nueva York. IBM fabrica y comercializa hardware y software para computadoras, y ofrece servicios de infraestructura, alojamiento de Internet, y consultoría en una amplia gama de áreas relacionadas con la informática, desde computadoras centrales hasta nanotecnología.2 La empresa fue fundada en 1911 como Computing Tabulating Recording Corporation, el resultado de la fusión de cuatro empresas: Tabulating Machine Company, International Time Recording Company, Computing Scale Corporation, y Bundy Manufacturing Company.3 4 CTR adoptó el nombre International Business Machines en 1924, utilizando un nombre previamente designado a un filial de CTR en Canadá, y posteriormente en América del Sur. En 2011, la revista Fortune clasificó IBM como la empresa número 18 en los Estados Unidos en tamaño,5 y la empresa número 7 en beneficios.6 Globalmente, la empresa fue clasificada como la empresa número 31 en tamaño por Forbes en 2011.7 8 Por el número de empleados (más de 425.000, quienes se denominan como "IBMers") es la segunda empresa más grande del mundo solo superada por Walmart (en más de 200 países, con ocupaciones incluyendo científicos, ingenieros, consultores y profesionales de ventas).9 IBM alberga más patentes que ninguna otra empresa de tecnología de Estados Unidos, y tiene nueve laboratorios de investigación.10 Sus empleados han recibido cinco Premios Nobel, cuatro Premios Turing, nueve National Medals of Technology y cinco National Medals of Science.11 Las invenciones famosas de IBM incluyen el cajero automático, el disquete, el disco duro, la banda magnética, el modelo relacional, el Universal Product Code, el "financial swap," el sistema de reservas aéreas SABRE, DRAM y el sistema de inteligencia artificial Watson. Índice [ocultar]  1 Historia o 1.1 1881-1929 o 1.2 1930-1979 o 1.3 1980-presente  2 Cultura empresarial  3 Apéndices o 3.1 Absorciones recientes o 3.2 Subsidiarias y otras compañías relacionadas o 3.3 Lista de gerentes  4 Sindicatos en IBM  5 Registro ambiental  6 Véase también  7 Referencias  8 Libros relacionados  9 Enlaces externos Historia[editar]
  • 16. 1881-1929[editar] Thomas John Watson, el líder de IBM desde 1914 hasta 1956 El 16 de junio de 1911, estas tecnologías y sus empresas respectivas12 1930-1979[editar] En 1937, los equipos de tabulación de IBM permitieron que las organizaciones procesaran cantidades de datos sin precedentes, con clientes incluyendo el Gobierno federal de los Estados Unidos, durante su primer esfuerzo para mantener los registros de empleo para 26.000.000 de personas según el "Social Security Act,"13 y el Tercer Reich,14 largamente a través de su filial alemán, Dehomag. Además, en junio de 1937, Thomas Watson, el presidente fundador de la empresa, tuvo un encuentro con Adolf Hitler para discutir con él las cuestiones del suministro de equipos, y luego aceptó una distinción que se volvería en su contra: una medalla creada para extranjeros "que demostraron ser dignos del Reich alemán." Rebosante de esvásticas y águilas, la medalla confirmaba la contribución de IBM a la automatización de la Alemania nazi. En 1941, Watson devolvió su medalla, y las tecnologías de la empresa pasaron a ser utilizadas para suministros arrendados a Auschwitz y otros campos nazis para acomodar a los prisioneros. Durante la Segunda Guerra Mundial, IBM produjo armas portátiles, tales como la Carabina M1 y el Fusil Automático Browning. En 1944, completó la construcción de la computadora "Automatic Sequence Controlled Calculator" ("Calculadora Controlada por Secuencia Automática"), también conocida como Harvard Mark I. Mark I, construida para la Armada de los Estados Unidos, fue la primera máquina capaz de ejecutar cálculos complejos automáticamente, y estaba basada en interruptores electromecánicos. En 1952, Thomas J. Watson, Jr. se convirtió en el presidente de la empresa, terminando casi 40 años de liderazgo de su padre. En 1953, IBM creó el IBM 701, el primer gran computador basado en válvulas de vacío, tecnología que substituyó a los interruptores electromecánicos. En 1954 introdujo la IBM 650. En 1956, Arthur L. Samuel, del laboratorio de IBM en Poughkeepsie, Nueva York, programó un IBM 704 para jugar a las damas utilizando un método por el que la máquina podía "aprender" a partir de su propia experiencia. Se cree que este es el primer programa de "auto-aprendizaje," una demostración del concepto de inteligencia artificial.
  • 17. En 1957, IBM desarrolló el primer sistema de almacenamiento informático basado en disco, llamado el IBM 305 RAMAC, y creó el lenguaje de programación científico FORTRAN (FORmula TRANslation). El RAMAC ATOGA es el predecesor de los discos duros actuales y estaba formado internamente por cincuenta discos. En 1959, los transistores empezaron a substituir a las válvulas de vacío. Uno de los primeros computadores de IBM basados en transistores fue el IBM 7090. Antes de esa época, los computadores se utilizaron principalmente en centros de investigación y del gobierno, y no fueron utilizados regularmente por las empresas. A comienzos de los años 1960, IBM comenzó a transformarse en una empresa dedicada exclusivamente a la informática, dejando paulatinamente la fabricación de equipos para tarjetas perforadas y máquinas de escribir. Estas últimas las empezó a fabricar a mediados de los años 1930. En 1961, Thomas J. Watson, Jr. fue elegido como presidente de la junta, y Albert Lynn Williams se convirtió en presidente de la empresa. IBM comenzó a desarrollar el sistema de reservas Sabre (Semi-Automatic Business-Related Environment) para American Airlines. Una máquina de escribir, "Selectric," era introducida por IBM el 31 de julio de 1961, y acabó siendo muy exitosa. En 1963, los empleados y computadores de IBM ayudaron a la NASA cuando estaba siguiendo el vuelo orbital de los astronautas del Proyecto Mercury, y un año después la empresa trasladó sus operaciones de la ciudad de Nueva York a su sede actual en Armonk. La segunda mitad de esa década vio IBM continuando su soporte de exploración espacial, al participar en el Programa Gemini en 1965, el vuelo del Saturno IB en 1966 y el primer aterrizaje de un ser humano en la Luna en 1969. El 7 de abril de 1964, IBM lanzó el System/360, la primera arquitectura de computadores que permitía intercambiar los programas y periféricos entre los distintos equipos componentes de la arquitectura, al contrario de lo existente anteriormente, cuando cada equipo era una caja cerrada incompatible con los demás. La orden de crear esta arquitectura partió directamente del gerente de IBM de la época, Thomas J. Watson, Jr. El desarrollo del System/360 fue tan costoso que prácticamente llevó a la quiebra a IBM, pero tuvo tal éxito al lanzarse al mercado que los nuevos ingresos y el liderazgo que consiguió IBM respecto a sus competidores les resarcieron de todos los gastos. Fue tal el éxito de IBM de mediados de los años 1960 que provocó que la empresa fuera investigada por monopolio. De hecho, tuvo un juicio, que comenzó en 1969, en el que fue acusada de intentar monopolizar el mercado de los dispositivos electrónicos de propósito general, concretamente el mercado de computadores empresariales. El juicio continuó hasta 1983 y tuvo gran impacto en las prácticas de la empresa. IBM introduce la Ingeniería en Sistemas Computacionales como un cargo laboral en 1969. Durante los años 1970, IBM plantea otra definición de Sistemas Computacionales. Continuó creando nuevos dispositivos informáticos. En 1971 creó el disco flexible y poco después empezó a comercializar predecesores de los actuales lectores de códigos de barras y cajeros automáticos. En 1973, el ingeniero George J. Laurer desarrolló el Universal Product Code.15
  • 18. 1980-presente[editar] Edificio de IBM en Madrid (España), de 1989. En 1981, IBM creó el IBM PC, que es el computador personal de más éxito de todos los tiempos. Este éxito no era esperado por IBM, que creó el IBM PC de forma rápida y comprando componentes de gama baja a otros fabricantes, cosa que no había hecho hasta el momento, para que el IBM PC no absorbiera parte del mercado de computadores más potentes de IBM. Además, el sistema operativo del IBM PC tampoco fue creado por IBM, sino que fue contratado a Microsoft. Debido a que no estaba creado desde cero por IBM, poco después comenzaron a aparecer equipos compatibles con el IBM PC de otros fabricantes, y Microsoft empezó a crecer al vender licencias del sistema operativo del IBM PC a estos otros fabricantes. Durante los años 1980, IBM forjó cuatro premios Nobel. En 1991, la empresa formó Lexmark cuando vendió sus operaciones de impresoras a la empresa de inversión Clayton and Dubilier, Inc.16 17 El 19 de enero de 1993, IBM anunció unas pérdidas de cerca de 8.000 millones de dólares, lo que fue el récord de pérdidas en una empresa de toda la historia de los Estados Unidos. Parte de esas pérdidas se deben a que el IBM PC absorbió gran parte del mercado de computadores más potentes y a que los fabricantes de computadores compatibles con el IBM PC cada vez tenían más cuota de mercado. El gran cambio en IBM se da en 1993, cuando Louis V. Gerstner, Jr. se convierte en el primer ejecutivo de alto nivel en la historia de IBM que no provenía de sus propias filas. Lou, como se le conoce, había sido CEO en empresas de fabricación de alimentos, cigarrillos y tarjetas de crédito, pero jamás de empresas de tecnología. A partir de entonces, IBM comenzó a transformarse en una empresa de servicios, reduciendo su dependencia económica de la venta de equipos. Esta tendencia se incrementó, especialmente desde que en 2002 Samuel J. Palmisano, sucesor de Lou, dejara de dirigir la rama de servicios de IBM para convertirse en el nuevo primer ejecutivo de la empresa. En 2003, alrededor del 50% de los ingresos de IBM provienen de la rama de servicios, mientras que la venta de equipos supone aproximadamente el 30%. En octubre de 2002, IBM adquirió PricewaterhouseCoopers, una empresa de servicios profesionales, por $3.900.000.000. La empresa de consultoría fue absorbida en IBM Global
  • 19. Business Services, aumentando el tamaño y las capacidades de la práctica de consultoría de IBM.18 El 10 de diciembre de 2004, IBM terminó las negociaciones encaminadas a vender la división para computadoras personales al grupo chino Lenovo por 650 millones de dólares en efectivo y 600 millones más en acciones (un 19% de Lenovo). Junto con la división de PC, Lenovo consigue alrededor de 10.000 empleados de IBM y el derecho a usar las marcas IBM y Thinkpad durante cinco años. En 2009, IBM adquirió la empresa de software SPSS Inc., y el mismo año, el programa de supercomputación Blue Gene fue premiado con la Medalla Nacional de Tecnología y Innovación por Barack Obama, el Presidente de los Estados Unidos. En 2011, IBM ganó atención mundial para su programa de inteligencia artificial "Watson," que era expuesto en el concurso de televisión Jeopardy!, derrotando a dos campeones notables del programa, Ken Jennings y Brad Rutter. Los inversores de IBM denunciaron a IBM por la cooperación con la Agencia de Seguridad Nacional americana, que ha causado que el precio de las acciones caiga después de las revelaciones de espionaje masivo de la NSA, debido a una caída de exportaciones, sobre todo a países como China.19 IBM también ha sido acusada de hacer lobbying por la Cyber Intelligence Sharing and Protection Act que permitirá a IBM compartir datos de los clientes con la NSA.19 Cultura empresarial[editar] IBM suele ser descrita como una empresa orientada a las ventas. Tradicionalmente, muchos de sus ejecutivos y administradores principales eran elegidos de entre sus vendedores. Además, la alta y media administración solía apoyar a los vendedores que estaban en proceso de hacer una venta a clientes importantes. Con el tiempo la empresa se ha ido volviendo más técnica RN; en 2003, alrededor de 178.000 de los 320.000 empleados con que cuenta IBM eran parte de la comunidad técnica, y de ellos 38.000 estaban relacionados con el software. En la actualidad, la cultura empresarial de IBM está siendo un defensor principal en el movimiento de código abierto ("open source" en inglés). La empresa también está invirtiendo miles de millones de dólares en servicios y software basados en Linux, a través del IBM Linux Technology Center, que incluye alrededor de 300 empleados de IBM que trabajan en el núcleo Linux.20 IBM también ha lanzado códigos bajo varias licencias de código abierto, tales como el framework multiplataforma Eclipse, la licencia International Components for Unicode (ICU) y el sistema de gestión de bases de datos relacionales Apache Derby, que está basado en el lenguaje de programación Java. Sin embargo, la participación de IBM en el movimiento de código abierto ha causado algunos problemas a la empresa (véase la disputa sobre la autoría de Linux). Apéndices[editar]
  • 20. Absorciones recientes[editar]  Coremetrics y Unica Corporation en 2010  SPSS en 2009  Cognos y ILOG en 2008  Datamirror en 2007  Softek en 2007  MRO Software en 2006, por $740.000.000  ISS en 2006  Alphablox en 2004  Candle Corp. en 2004  Rational Software en 2003, por $2.100.000.000  La consultora PricewaterhouseCoopers en 2002, por $3.900.000.000  Informix Software (realmente una compra de activos) en 2001, por $1.000.000.000  Sequent Computer Systems en 1999, por $810.000.000  Tivoli Systems en 1995, por $750.000.000  Lotus Development Corporation en 1995, por $3.500.000.000 Subsidiarias y otras compañías relacionadas[editar]  Ingeniería del Software Avanzado (INSA), proyecto empresarial iniciado en 1991 por IBM España y Catalana Occidente.  Lexmark, compañía creada en 1991 como una empresa externa enfocada a la fabricación de impresoras, en 1995 IBM puso a la venta una parte de la compañía mediante la colocación de acciones en NYSE, con lo que se desincorpora de IBM.  Taligent, compañía creada en 1992 junto con Apple Computer para desarrollar un nuevo sistema operativo que trabajara en cualquier arquitectura de hardware. En 1998, la compañía fue incorporada a la estructura de IBM y posteriormente disuelta.  Hitachi Global Storage Technologies, empresa formada por IBM e Hitachi para manejar las tecnologías de almacenamiento de datos de ambas, entre las que se incluyen los discos duros y los Microdrives.  ScanSoft vende y da soporte a los productos de reconocimiento de voz de IBM bajo la marca ViaVoice. También distribuye un producto similar bajo el nombre Dragon Naturally Speaking.  IBM Global Network fue la división de servicios de Internet de IBM, adquirida en 1999 por AT&T. Actualmente se llama AT&T Business Internet.  Lenovo es el grupo chino que compró a IBM su división de computadores personales desde finales de 2004. Lista de gerentes[editar]  Thomas John Watson, 1914 - 1956  Thomas J. Watson Jr., 1956 - 1971  T. Vincent Learson, 1971 - 1973  Frank T. Cary, 1973 - 1981  John R. Opel, 1981 - 1985  John F. Akers, 1985 - 1993  Louis V. Gerstner, Jr., 1993 - 2002  Samuel J. Palmisano, 2002 - 2011  Ginni Rometty, 2012 - actualidad
  • 21. Sindicatos en IBM[editar] IBM lleva adelante una política hostil a la sindicalización en todo el mundo.[cita requerida] A pesar de ello fue posible la organización sindical y en muchos países existen sindicatos que agrupan a los trabajadores de IBM. En 1984, se formó IWIS21 (IBM Workers International Solidarity), que es una coordinadora de la actividad sindical de los trabajadores de IBM mundialmente. La última conferencia se realizó en 2007 entre el 26 y 28 de junio en París y fue electo como coordinador Lee Conrad de Alliance IBM/CWA de Estados Unidos de América. Registro ambiental[editar] En 2005, IBM fue reconocido como uno de las "20 mejores empresas para trabajadores que viajan" por la Agencia de Protección Ambiental de los Estados Unidos. El propósito del premio fue para reconocer las empresas en la lista Fortune 500 que proporcionaron a sus empleados beneficios excelentes para ayudar en reducir tráfico y contaminación atmosférica.22 Sin embargo, el pueblo de nacimiento de IBM, Endicott, Nueva York, sufrió contaminación durante décadas. IBM utilizó líquidos de limpieza en operaciones de montaje de circuito impreso por más de dos décadas, y seis derrames y fugas se registraron, incluyendo una fuga en 1979 de 4.100 galones de un tanque subterráneo. Estos dejaron atrás los compuestos orgánicos volátiles en el suelo y acuífero de la ciudad. Oglioelementos de compuestos orgánicos volátiles han sido identificados en el agua potable de Endicott, pero los niveles se encuentran dentro de los límites reglamentarios. También, a partir de 1980, IBM ha bombeado 78.000 galones de productos químicos, incluido 1,1,1-tricloroetano, freón, benceno, y percloroeteno al aire, provocando supuestamente varios casos de cáncer entre las gentes. IBM Endicott ha sido identificado por el Departamento de Conservación del Medio Ambiente del Estado de Nueva York como la fuente principal de la contaminación, aunque restos de los contaminantes de una tintorería local y otros contaminantes también han sido encontrados. A pesar de la cantidad de contaminante, los funcionarios estatales no pudieron verificar si la contaminación hídrica en Endicott ha realmente causado problemas de salud. Según los funcionarios de la ciudad, las pruebas demuestran que el agua es segura para beber.23 Tokio Ohka Kogyo Co., Ltd. (TOK) e IBM están colaborando para establecer nuevos métodos de bajo costo para introducir al mercado la próxima generación de productos de energía solar, el módulo de células fotoeléctricas llamado CIGS (Copper-Indium-Gallium- Selenide). El uso de la tecnología de lámina delgada, como la CIGS, promete reducir el costo total de las células solares y además permitir su adopción generalizada.24 25 IBM está explorando cuatro áreas principales de investigación fotovoltaica: el uso de las tecnologías actuales para desarrollar células solares de silicio más baratas y eficientes, el desarrollo de nuevos dispositivos fotovoltaicos de lámina delgada, concentradoras de energía fotovoltaica y arquitecturas fotovoltaicas de generaciones futuras basadas en tales nanoestructuras como puntos cuánticos semiconductores y nanohilos.26
  • 22. HISTORIA DE LA COMPUTACION COMPUTADORA Máquina capaz de efectuar una secuencia de operaciones mediante un programa, de tal manera, que se realice un procesamiento sobre un conjunto de datos de entrada, obteniéndose otro conjunto de datos de salida. TIPOS DE COMPUTADORAS Se clasifican de acuerdo al principio de operación de Analógicas y Digitales.  COMPUTADORA ANALÓGICA 1. Aprovechando el hecho de que diferentes fenómenos físicos se describen por relaciones matemáticas similares (v.g. Exponenciales, Logarítmicas, etc.) pueden entregar la solución muy rápidamente. Pero tienen el inconveniente que al cambiar el problema a resolver, hay que realambrar la circuitería (cambiar el Hardware).  COMPUTADORA DIGITAL 1. Están basadas en dispositivos biestables, i.e., que sólo pueden tomar uno de dos valores posibles: ‘1’ ó ‘0’. Tienen como ventaja, el poder ejecutar diferentes programas para diferentes problemas, sin tener que la necesidad de modificar físicamente la máquina. HISTORIA DE LA COMPUTACIÓN Uno de los primeros dispositivos mecánicos para contar fue el ábaco, cuya historia se remonta a las antiguas civilizaciones griega y romana. Este dispositivo es muy sencillo, consta de cuentas ensartadas en varillas que a su vez están montadas en un marco rectangular. Al desplazar las cuentas sobre varillas, sus posiciones representan valores almacenados, y es mediante dichas posiciones que este representa y almacena datos. A este dispositivo no se le puede llamar computadora por carecer del elemento fundamental llamado programa. Otro de los inventos mecánicos fue la Pascalina inventada por Blaise Pascal (1623 - 1662) de Francia y la de Gottfried Wilhelm von Leibniz (1646 - 1716) de Alemania. Con estas máquinas, los datos se representaban mediante las posiciones de los engranajes, y los datos se introducían manualmente estableciendo dichas posiciones finales de las ruedas, de manera similar a como leemos los números en el cuentakilómetros de un automóvil. La primera computadora fue la máquina analítica creada por Charles Babbage, profesor matemático de la Universidad de Cambridge en el siglo XIX. La idea que tuvo Charles Babbage sobre un computador nació
  • 23. debido a que la elaboración de las tablas matemáticas era un proceso tedioso y propenso a errores. En 1823 el gobierno Británico lo apoyo para crear el proyecto de una máquina de diferencias, un dispositivo mecánico para efectuar sumas repetidas. Mientras tanto Charles Jacquard (francés), fabricante de tejidos, había creado un telar que podía reproducir automáticamente patrones de tejidos leyendo la información codificada en patrones de agujeros perforados en tarjetas de papel rígido. Al enterarse de este método Babbage abandonó la máquina de diferencias y se dedico al proyecto de la máquina analítica que se pudiera programar con tarjetas perforadas para efectuar cualquier cálculo con una precisión de 20 dígitos. La tecnología de la época no bastaba para hacer realidad sus ideas. El mundo no estaba listo, y no lo estaría por cien años más. En 1944 se construyó en la Universidad de Harvard, la Mark I, diseñada por un equipo encabezado por Howard H. Aiken. Esta máquina no está considerada como computadora electrónica debido a que no era de propósito general y su funcionamiento estaba basado en dispositivos electromecánicos llamados relevadores. En 1947 se construyó en la Universidad de Pennsylvania la ENIAC (Electronic Numerical Integrator And Calculator) que fue la primera computadora electrónica, el equipo de diseño lo encabezaron los ingenieros John Mauchly y John Eckert. Esta máquina ocupaba todo un sótano de la Universidad, tenía más de 18 000 tubos de vacío, consumía 200 KW de energía eléctrica y requería todo un sistema de aire acondicionado, pero tenía la capacidad de realizar cinco mil operaciones aritméticas en un segundo. El proyecto, auspiciado por el departamento de Defensa de los Estados Unidos, culminó dos años después, cuando se integró a ese equipo el ingeniero y matemático húngaro John von Neumann (1903 - 1957). Las ideas de von Neumann resultaron tan fundamentales para su desarrollo posterior, que es considerado el padre de las computadoras. La EDVAC (Electronic Discrete Variable Automatic Computer) fue diseñada por este nuevo equipo. Tenía aproximadamente cuatro mil bulbos y usaba un tipo de memoria basado en tubos llenos de mercurio por donde circulaban señales eléctricas sujetas a retardos. La idea fundamental de von Neumann fue: permitir que en la memoria coexistan datos con instrucciones, para que entonces la computadora pueda ser programada en un lenguaje, y no por medio de alambres que eléctricamente interconectaban varias secciones de control, como en la ENIAC. Todo este desarrollo de las computadoras suele divisarse por generaciones y el criterio que se determinó para determinar el cambio de generación no está muy bien definido, pero resulta aparente que deben cumplirse al menos los siguientes requisitos:  La forma en que están construidas.  Forma en que el ser humano se comunica con ellas. Primera Generación
  • 24. En esta generación había una gran desconocimiento de las capacidades de las computadoras, puesto que se realizó un estudio en esta época que determinó que con veinte computadoras se saturaría el mercado de los Estados Unidos en el campo de procesamiento de datos. Esta generación abarco la década de los cincuenta. Y se conoce como la primera generación. Estas máquinas tenían las siguientes características:  Estas máquinas estaban construidas por medio de tubos de vacío.  Eran programadas en lenguaje de máquina. En esta generación las máquinas son grandes y costosas (de un costo aproximado de ciento de miles de dólares). En 1951 aparece la UNIVAC (NIVersAl Computer), fue la primera computadora comercial, que disponía de mil palabras de memoria central y podían leer cintas magnéticas, se utilizó para procesar el censo de 1950 en los Estados Unidos. En las dos primeras generaciones, las unidades de entrada utilizaban tarjetas perforadas, retomadas por Herman Hollerith (1860 - 1929), quien además fundó una compañía que con el paso del tiempo se conocería como IBM (International Bussines Machines). Después se desarrolló por IBM la IBM 701 de la cual se entregaron 18 unidades entre 1953 y 1957. Posteriormente, la compañía Remington Rand fabricó el modelo 1103, que competía con la 701 en el campo científico, por lo que la IBM desarrollo la 702, la cual presentó problemas en memoria, debido a esto no duró en el mercado. La computadora más exitosa de la primera generación fue la IBM 650, de la cual se produjeron varios cientos. Esta computadora que usaba un esquema de memoria secundaria llamado tambor magnético, que es el antecesor de los discos actuales. Otros modelos de computadora que se pueden situar en los inicios de la segunda generación son: la UNIVAC 80 y 90, las IBM 704 y 709, Burroughs 220 y UNIVAC 1105. Segunda Generación Cerca de la década de 1960, las computadoras seguían evolucionando, se reducía su tamaño y crecía su capacidad de procesamiento. También en esta época se empezó a definir la forma de comunicarse con las computadoras, que recibía el nombre de programación de sistemas. Las características de la segunda generación son las siguientes:  Están construidas con circuitos de transistores.  Se programan en nuevos lenguajes llamados lenguajes de alto nivel.
  • 25. En esta generación las computadoras se reducen de tamaño y son de menor costo. Aparecen muchas compañías y las computadoras eran bastante avanzadas para su época como la serie 5000 de Burroughs y la ATLAS de la Universidad de Manchester. Algunas de estas computadoras se programaban con cintas perforadas y otras más por medio de cableado en un tablero. Los programas eran hechos a la medida por un equipo de expertos: analistas, diseñadores, programadores y operadores que se manejaban como una orquesta para resolver los problemas y cálculos solicitados por la administración. El usuario final de la información no tenía contacto directo con las computadoras. Esta situación en un principio se produjo en las primeras computadoras personales, pues se requería saberlas "programar" (alimentarle instrucciones) para obtener resultados; por lo tanto su uso estaba limitado a aquellos audaces pioneros que gustaran de pasar un buen número de horas escribiendo instrucciones, "corriendo" el programa resultante y verificando y corrigiendo los errores o bugs que aparecieran. Además, para no perder el "programa" resultante había que "guardarlo" (almacenarlo) en una grabadora de astte, pues en esa época no había discos flexibles y mucho menos discos duros para las PC; este procedimiento podía tomar de 10 a 45 minutos, según el programa. El panorama se modificó totalmente con la aparición de las computadoras personales con mejore circuitos, más memoria, unidades de disco flexible y sobre todo con la aparición de programas de aplicación general en donde el usuario compra el programa y se pone a trabajar. Aparecen los programas procesadores de palabras como el célebre Word Star, la impresionante hoja de cálculo (spreadsheet) Visicalc y otros más que de la noche a la mañana cambian la imagen de la PC. El sortware empieza a tratar de alcanzar el paso del hardware. Pero aquí aparece un nuevo elemento: el usuario. El usuario de las computadoras va cambiando y evolucionando con el tiempo. De estar totalmente desconectado a ellas en las máquinas grandes pasa la PC a ser pieza clave en el diseño tanto del hardware como del software. Aparece el concepto de human interface que es la relación entre el usuario y su computadora. Se habla entonces de hardware ergonómico (adaptado a las dimensiones humanas para reducir el cansancio), diseños de pantallas antirreflejos y teclados que descansen la muñeca. Con respecto al software se inicia una verdadera carrera para encontrar la manera en que el usuario pase menos tiempo capacitándose y entrenándose y más tiempo produciendo. Se ponen al alcance programas con menús (listas de opciones) que orientan en todo momento al usuario (con el consiguiente aburrimiento de los usuarios expertos); otros programas ofrecen toda una artillería de teclas de control y teclas de funciones (atajos) para efectuar toda suerte de efectos en el trabajo (con la consiguiente desorientación de los usuarios novatos). Se ofrecen un sinnúmero de cursos prometiendo que en pocas semanas hacen de cualquier persona un experto en los programas comerciales. Pero el problema "constante" es que ninguna solución para el uso de los programas es "constante". Cada nuevo programa requiere aprender nuevos controles, nuevos trucos, nuevos menús. Se empieza a sentir que la relación usuario-PC no está acorde con los desarrollos del equipo y de la potencia de los programas. Hace falta una relación amistosa entre el usuario y la PC. Las computadoras de esta generación fueron: la Philco 212 (esta compañía se retiró del mercado en 1964) y la UNIVAC M460, la Control Data Corporation modelo 1604, seguida por la serie 3000, la IBM mejoró la 709 y sacó al mercado la 7090, la National Cash Register empezó a producir máquinas para proceso de datos de tipo comercial, introdujo el modelo NCR 315. La Radio Corporation of America introdujo el modelo 501, que manejaba el lenguajeCOBOL, para procesos administrativos y comerciales. Después salió al mercado la RCA 601. Tercera generación
  • 26. Con los progresos de la electrónica y los avances de comunicación con las computadoras en la década de los 1960, surge la tercera generación de las computadoras. Se inaugura con la IBM 360 en abril de 1964.3 Las características de esta generación fueron las siguientes:  Su fabricación electrónica esta basada en circuitos integrados.  Su manejo es por medio de los lenguajes de control de los sistemas operativos. La IBM produce la serie 360 con los modelos 20, 22, 30, 40, 50, 65, 67, 75, 85, 90, 195 que utilizaban técnicas especiales del procesador, unidades de cinta de nueve canales, paquetes de discos magnéticos y otras características que ahora son estándares (no todos los modelos usaban estas técnicas, sino que estaba dividido por aplicaciones). El sistema operativo de la serie 360, se llamó OS que contaba con varias configuraciones, incluía un conjunto de técnicas de manejo de memoria y del procesador que pronto se convirtieron en estándares. En 1964 CDC introdujo la serie 6000 con la computadora 6600 que se consideró durante algunos años como la más rápida. En la década de 1970, la IBM produce la serie 370 (modelos 115, 125, 135, 145, 158, 168). UNIVAC compite son los modelos 1108 y 1110, máquinas en gran escala; mientras que CDC produce su serie 7000 con el modelo 7600. Estas computadoras se caracterizan por ser muy potentes y veloces. A finales de esta década la IBM de su serie 370 produce los modelos 3031, 3033, 4341. Burroughs con su serie 6000 produce los modelos 6500 y 6700 de avanzado diseño, que se reemplazaron por su serie 7000. Honey - Well participa con su computadora DPS con varios modelos. A mediados de la década de 1970, aparecen en el mercado las computadoras de tamaño mediano, o minicomputadoras que no son tan costosas como las grandes (llamadas también como mainframes que significa también, gran sistema), pero disponen de gran capacidad de procesamiento. Algunas minicomputadoras fueron las siguientes: la PDP - 8 y la PDP - 11 de Digital Equipment Corporation, la VAX (Virtual Address eXtended) de la misma compañía, los modelos NOVA y ECLIPSE de Data General, la serie 3000 y 9000 de Hewlett - Packard con varios modelos el 36 y el 34, la Wang y Honey - Well -Bull, Siemens de origen alemán, la ICL fabricada en Inglaterra. En la Unión Soviética se utilizó la US (Sistema Unificado, Ryad) que ha pasado por varias generaciones. Cuarta Generación
  • 27. Aquí aparecen los microprocesadores que es un gran adelanto de la microelectrónica, son circuitos integrados de alta densidad y con una velocidad impresionante. Las microcomputadoras con base en estos circuitos son extremadamente pequeñas y baratas, por lo que su uso se extiende al mercado industrial. Aquí nacen las computadoras personales que han adquirido proporciones enormes y que han influido en la sociedad en general sobre la llamada "revolucióninformática". En 1976 Steve Wozniak y Steve Jobs inventan la primera microcomputadora de uso masivo y más tarde forman la compañía conocida como la Apple que fue la segunda compañía más grande del mundo, antecedida tan solo por IBM; y esta por su parte es aún de las cinco compañías más grandes del mundo. En 1981 se vendieron 800 00 computadoras personales, al siguiente subió a 1 400 000. Entre 1984 y 1987 se vendieron alrededor de 60 millones de computadoras personales, por lo que no queda duda que su impacto y penetración han sido enormes. Con el surgimiento de las computadoras personales, el software y los sistemas que con ellas de manejan han tenido un considerable avance, porque han hecho más interactiva la comunicación con el usuario. Surgen otras aplicaciones como los procesadores de palabra, las hojas electrónicas de cálculo, paquetes gráficos, etc. También las industrias del Software de las computadoras personales crece con gran rapidez, Gary Kildall y William Gates se dedicaron durante años a la creación de sistemas operativos y métodos para lograr una utilización sencilla de las microcomputadoras (son los creadores de CP/M y de los productos de Microsoft). No todo son microcomputadoras, por su puesto, las minicomputadoras y los grandes sistemas continúan en desarrollo. De hecho las máquinas pequeñas rebasaban por mucho la capacidad de los grandes sistemas de 10 o 15 años antes, que requerían de instalaciones costosas y especiales, pero sería equivocado suponer que las grandes computadoras han desaparecido; por el contrario, su presencia era ya ineludible en prácticamente todas las esferas de control gubernamental, militar y de la gran industria. Las enormes computadoras de las series CDC, CRAY, Hitachi o IBM por ejemplo, eran capaces de atender a varios cientos de millones de operaciones por segundo. Quinta Generación En vista de la acelerada marcha de la microelectrónica, la sociedad industrial se ha dado a la tarea de poner también a esa altura el desarrollo del software y los sistemas con que se manejan las computadoras. Surge la competenciainternacional por el dominio del mercado de la computación, en la que se perfilan dos líderes que, sin embargo, no han podido alcanzar el nivel que se desea: la capacidad de comunicarse con la computadora en un lenguaje más cotidiano y no a través de códigos o lenguajes de control especializados. Japón lanzó en 1983 el llamado "programa de la quinta generación de computadoras", con los objetivos explícitos de producir máquinas con innovaciones reales en los criterios mencionados. Y en los Estados Unidos ya está en actividad un programa en desarrollo que persigue objetivos semejantes, que pueden resumirse de la siguiente manera:  Procesamiento en paralelo mediante arquitecturas y diseños especiales y circuitos de gran velocidad.  Manejo de lenguaje natural y sistemas de inteligencia artificial.
  • 28. El futuro previsible de la computación es muy interesante, y se puede esperar que esta ciencia siga siendo objeto de atención prioritaria de gobiernos y de la sociedad en conjunto. MODELO DE VON NEUMANN Las computadoras digitales actuales se ajustan al modelo propuesto por el matemático John Von Neumann. De acuerdo con el, una característica importante de este modelo es que tanto los datos como los programas, se almacenan en la memoria antes de ser utilizados. REDES DE COMPUTADORAS Red de computadoras De Wikipedia, la enciclopedia libre Saltar a: navegación, búsqueda Una red de computadoras, también llamada red de ordenadores, red de comunicaciones de datos o red informática, es un conjunto de equipos informáticos y software conectados entre sí por medio de dispositivos físicos que envían y reciben impulsos eléctricos, ondas electromagnéticas o cualquier otro medio para el transporte de datos, con la finalidad de compartir información, recursos y ofrecer servicios.1 Como en todo proceso de comunicación se requiere de un emisor, un mensaje, un medio y un receptor. La finalidad principal para la creación de una red de computadoras es compartir los recursos y la información en la distancia, asegurar la confiabilidad y la disponibilidad de la información, aumentar la velocidad de transmisión de los datos y reducir el costo general de estas acciones.2 Un ejemplo es Internet, la cual es una gran red de millones de computadoras ubicadas en distintos puntos del planeta interconectadas básicamente para compartir información y recursos. La estructura y el modo de funcionamiento de las redes informáticas actuales están definidos en varios estándares, siendo el más importante y extendido de todos ellos el modelo TCP/IP basado en el modelo de referencia OSI. Este último, estructura cada red en siete capas con funciones concretas pero relacionadas entre sí; en TCP/IP se reducen a cuatro capas. Existen multitud de protocolos repartidos por cada capa, los cuales también están regidos por sus respectivos estándares.3 Índice [ocultar]  1 Historia  2 Descripción básica  3 Componentes básicos de las redes o 3.1 Software o 3.2 Hardware  3.2.1 Tarjeta de red
  • 29. o 3.3 Dispositivos de usuario final  3.3.1 Servidores  3.3.2 Almacenamiento en red o 3.4 Dispositivos de red o 3.5 Protocolos de redes  3.5.1 Modelo OSI  3.5.2 Modelo TCP/IP  3.5.3 Otros estándares  4 Clasificación de las redes o 4.1 Por alcance o 4.2 Por tipo de conexión  4.2.1 Medios guiados  4.2.2 Medios no guiados o 4.3 Por relación funcional o 4.4 Por tecnología o 4.5 Por topología física o 4.6 Por la direccionalidad de los datos o 4.7 Por grado de autentificación o 4.8 Por grado de difusión o 4.9 Por servicio o función  5 Véase también  6 Referencias o 6.1 Bibliografía  7 Enlaces externos Historia El primer indicio de redes de comunicación fue de tecnología telefónica y telegráfica. En 1940 se transmitieron datos desde la Universidad de Darmouth, en Nuevo Hampshire, a Nueva York. A finales de la década de 1960 y en los posteriores 70 fueron creadas las minicomputadoras. En 1976, Apple introduce el Apple I, uno de los primeros ordenadores personales. En 1981, IBM introduce su primera PC. A mitad de la década de 1980 las PC comienzan a usar los módems para compartir archivos con otras computadoras, en un rango de velocidades que comenzó en 1200 bps y llegó a los 56 kbps (comunicación punto a punto o dial-up), cuando empezaron a ser sustituidos por sistema de mayor velocidad, especialmente ADSL. Descripción básica La comunicación por medio de una red se lleva a cabo en dos diferentes categorías: la capa física y la capa lógica. La capa física incluye todos los elementos de los que hace uso un equipo para comunicarse con otros equipos dentro de la red, como, por ejemplo, las tarjetas de red, los cables, las antenas, etc. La comunicación a través de la capa física se rige por normas muy rudimentarias que por sí mismas resultan de escasa utilidad. Sin embargo, haciendo uso de dichas normas es posible
  • 30. construir los denominados protocolos, que son normas de comunicación más complejas (mejor conocidas como de alto nivel), capaces de proporcionar servicios que resultan útiles. Los protocolos son un concepto muy similar al de los idiomas de las personas. Si dos personas hablan el mismo idioma, es posible comunicarse y transmitir ideas. La razón más importante (quizá la única) sobre por qué existe diferenciación entre la capa física y la lógica es sencilla: cuando existe una división entre ambas, es posible utilizar un número casi infinito de protocolos distintos, lo que facilita la actualización y migración entre distintas tecnologías. Componentes básicos de las redes Para poder formar una red se requieren elementos: hardware, software y protocolos. Los elementos físicos se clasifican en dos grandes grupos: dispositivos de usuario final (hosts) y dispositivos de red. Los dispositivos de usuario final incluyen los computadores, impresoras, escáneres, y demás elementos que brindan servicios directamente al usuario y los segundos son todos aquellos que conectan entre sí a los dispositivos de usuario final, posibilitando su intercomunicación. El fin de una red es la de interconectar los componentes hardware de una red , y por tanto, principalmente, las computadoras individuales, también denominados hosts, a los equipos que ponen los servicios en la red, los servidores, utilizando el cableado o tecnología inalámbrica soportada por la electrónica de red y unidos por cableado o radiofrecuencia. En todos los casos la tarjeta de red se puede considerar el elemento primordial, sea ésta parte de un ordenador, de un conmutador, de una impresora, etc. y sea de la tecnología que sea (ethernet, Wi-Fi, Bluetooth, etc.) Software Sistema operativo de red: permite la interconexión de ordenadores para poder acceder a los servicios y recursos. Al igual que un equipo no puede trabajar sin un sistema operativo, una red de equipos no puede funcionar sin un sistema operativo de red. En muchos casos el sistema operativo de red es parte del sistema operativo de los servidores y de los clientes, por ejemplo en Linux y Microsoft Windows. Software de aplicación: en última instancia, todos los elementos se utilizan para que el usuario de cada estación, pueda utilizar sus programas y archivos específicos. Este software puede ser tan amplio como se necesite ya que puede incluir procesadores de texto, paquetes integrados, sistemas administrativos de contabilidad y áreas afines, sistemas especializados, correos electrónico, etc. El software adecuado en el sistema operativo de red elegido y con los protocolos necesarios permiten crear servidores para aquellos servicios que se necesiten. Hardware Tarjeta de red Artículo principal: Tarjeta de red
  • 31. Para lograr el enlace entre las computadoras y los medios de transmisión (cables de red o medios físicos para redes alámbricas e infrarrojos o radiofrecuencias para redes inalámbricas), es necesaria la intervención de una tarjeta de red, o NIC (Network Card Interface), con la cual se puedan enviar y recibir paquetes de datos desde y hacia otras computadoras, empleando un protocolo para su comunicación y convirtiendo a esos datos a un formato que pueda ser transmitido por el medio (bits, ceros y unos). Cabe señalar que a cada tarjeta de red le es asignado un identificador único por su fabricante, conocido como dirección MAC (Media Access Control), que consta de 48 bits (6 bytes). Dicho identificador permite direccionar el tráfico de datos de la red del emisor al receptor adecuado. El trabajo del adaptador de red es el de convertir las señales eléctricas que viajan por el cable (ej: red Ethernet) o las ondas de radio (ej: red Wi-Fi) en una señal que pueda interpretar el ordenador. Estos adaptadores son unas tarjetas PCI que se conectan en las ranuras de expansión del ordenador. En el caso de ordenadores portátiles, estas tarjetas vienen en formato PCMCIA o similares. En los ordenadores del siglo XXI, tanto de sobremesa como portátiles, estas tarjetas ya vienen integradas en la placa base. Adaptador de red es el nombre genérico que reciben los dispositivos encargados de realizar dicha conversión. Esto significa que estos adaptadores pueden ser tanto Ethernet, como wireless, así como de otros tipos como fibra óptica, coaxial, etc. También las velocidades disponibles varían según el tipo de adaptador; éstas pueden ser, en Ethernet, de 10, 100, 1000 Mbps o 10000, y en los inalámbricos, principalmente, de 11, 54, 300 Mbps. Dispositivos de usuario final  Computadoras personales: son los puestos de trabajo habituales de las redes. Dentro de la categoría de computadoras, y más concretamente computadoras personales, se engloban todos los que se utilizan para distintas funciones, según el trabajo que realizan. Se incluyen desde las potentes estaciones de trabajo para la edición de vídeo, por ejemplo, hasta los ligeros equipos portátiles, conocidos como netbooks, cuya función principal es la de navegar por Internet. Las tabletas se popularizaron al final de la primera década del siglo XXI, especialmente por el éxito del iPad de Apple.  Terminal: muchas redes utilizan este tipo de equipo en lugar de puestos de trabajo para la entrada de datos. En estos sólo se exhiben datos o se introducen. Este tipo de terminales, trabajan unido a un servidor, que es quien realmente procesa los datos y envía pantallas de datos a los terminales.  Electrónica del hogar: las tarjetas de red empezaron a integrarse, de forma habitual, desde la primera década del siglo XXI, en muchos elementos habituales de los hogares: televisores, equipos multimedia, proyectores, videoconsolas, teléfonos celulares, libros electrónicos, etc. e incluso en electrodomésticos, como frigoríficos, convirtiéndolos en partes de las redes junto a los tradiciones ordenadores.  Impresoras: muchos de estos dispositivos son capaces de actuar como parte de una red de ordenadores sin ningún otro elemento, tal como un print server, actuando como intermediario entre la impresora y el dispositivo que está solicitando un trabajo de
  • 32. impresión de ser terminado. Los medios de conectividad de estos dispositivos pueden ser alambricos o inalámbricos, dentro de este último puede ser mediante: ethernet, Wi-Fi, infrarrojo o bluetooth. En algunos casos se integran dentro de la impresora y en otros por medio de convertidores externos.  Otros elementos: escáneres, lectores de CD-ROM, Servidores Artículo principal: Servidor Son los equipos que ponen a disposición de los clientes los distintos servicios. En la siguiente lista hay algunos tipos comunes de servidores y sus propósitos:  Servidor de archivos: almacena varios tipos de archivo y los distribuye a otros clientes en la red. Pueden ser servidos en distinto formato según el servicio que presten y el medio: FTP, SMB, etc.  Servidor de impresión: controla una o más impresoras y acepta trabajos de impresión de otros clientes de la red, poniendo en cola los trabajos de impresión (aunque también puede cambiar la prioridad de las diferentes impresiones), y realizando la mayoría o todas las otras funciones que en un sitio de trabajo se realizaría para lograr una tarea de impresión si la impresora fuera conectada directamente con el puerto de impresora del sitio de trabajo.  Servidor de correo: almacena, envía, recibe, enruta y realiza otras operaciones relacionadas con el e-mail para los clientes de la red.  Servidor de fax: almacena, envía, recibe, enruta y realiza otras funciones necesarias para la transmisión, la recepción y la distribución apropiadas de los fax, con origen y/o destino una computadora o un dispositivo físico de telefax.  Servidor de telefonía: realiza funciones relacionadas con la telefonía, como es la de contestador automático, realizando las funciones de un sistema interactivo para la respuesta de la voz, almacenando los mensajes de voz, encaminando las llamadas y controlando también la red o Internet, etc. Pueden operan con telefonía IP o analógica.  Servidor proxy: realiza un cierto tipo de funciones en nombre de otros clientes en la red para aumentar el funcionamiento de ciertas operaciones (p. ej., prefetching y depositar documentos u otros datos que se soliciten muy frecuentemente). También «sirve» seguridad; esto es, tiene un firewall (cortafuegos). Permite administrar el acceso a Internet en una red de computadoras permitiendo o negando el acceso a diferentes sitios web, basándose en contenidos, origen/destino, usuario, horario, etc.  Servidor de acceso remoto (RAS, del inglés Remote Access Service): controla las líneas de módems u otros canales de comunicación de la red para que las peticiones conecten una posición remota con la red, responden las llamadas telefónicas entrantes o reconocen la petición de la red y realizan los chequeos necesarios de seguridad y otros procedimientos necesarios para registrar a un usuario en la red. Gestionan las entradas para establecer la redes virtuales privadas, VPN.
  • 33.  Servidor web: almacena documentos HTML, imágenes, archivos de texto, escrituras, y demás material web compuesto por datos (conocidos normalmente como contenido), y distribuye este contenido a clientes que la piden en la red.  Servidor de streaming: servidores que distribuyen multimedia de forma continua evitando al usuario esperar a la descarga completa del fichero. De esta forma se pueden distribuir contenidos tipo radio, vídeo, etc. en tiempo real y sin demoras.  Servidor de reserva, o standby server: tiene el software de reserva de la red instalado y tiene cantidades grandes de almacenamiento de la red en discos duros u otras formas del almacenamiento disponibles para que se utilice con el fin de asegurarse de que la pérdida de un servidor principal no afecte a la red. El servidor de reserva lo puede ser de cualquiera de los otros tipos de servidor, siendo muy habituales en los servidores de aplicaciones y bases de datos.  Servidor de autenticación: es el encargado de verificar que un usuario pueda conectarse a la red en cualquier punto de acceso, ya sea inalámbrico o por cable, basándose en el estándar 802.1x y puede ser un servidor de tipo RADIUS.  Servidores para los servicios de red: estos equipos gestionan aquellos servicios necesarios propios de la red y sin los cuales no se podrían interconectar, al menos de forma sencilla. Algunos de esos servicios son: servicio de directorio para la gestión d elos usuarios y los recursos compartidos, Dynamic Host Configuration Protocol (DHCP) para la asignación de las direcciones IP en redes TCP/IP, Domain Name System (DNS) para poder nombrar los equipos sin tener que recurrir a su dirección IP numérica, etc.  Servidor de base de datos: permite almacenar la información que utilizan las aplicaciones de todo tipo, guardándola ordenada y clasificada y que puede ser recuperada en cualquier momento y en base a una consulta concreta. Estos servidores suelen utilizar lenguajes estandarízados para hacer más fácil y reutilizable la programación de aplicaciones, uno de los más populares es SQL.  Servidor de aplicaciones: ejecuta ciertas aplicaciones. Usualmente se trata de un dispositivo de software que proporciona servicios de aplicación a las computadoras cliente. Un servidor de aplicaciones gestiona la mayor parte (o la totalidad) de las funciones de lógica de negocio y de acceso a los datos de la aplicación. Los principales beneficios de la aplicación de la tecnología de servidores de aplicación son la centralización y la disminución de la complejidad en el desarrollo de aplicaciones.  Servidores de monitorización y gestión: ayudan a simplificar las tareas de control, monitorización, búsqueda de averías, resolución de incidencias, etc. Permiten, por ejemplo, centralizar la recepción de mensajes de aviso, alarma e información que emiten los distintos elementos de red (no solo los propios servidores). El SNMP es un de los protocolos más difundidos y que permite comunicar elementos de distintos fabricantes y de distinta naturaleza.  Y otros muchos dedicados a múltiples tareas, desde muy generales a aquellos de una especifidad enorme.
  • 34. Almacenamiento en red En la redes medianas y grandes el almacenamiento de datos principal no se produce en los propios servidores sino que se utilizan dispositivos externos, conocidos como disk arrays (matrices de discos) interconectados, normalmente por redes tipo SAN, o NAS. Estos medios permiten centralizar la información, una mejor gestión del espacio, sistemas redundantes y de alta disponibilidad. Los medios de copia de seguridad suelen incluirse en la misma red donde se alojan los medios de almacenamiento mencionados más arriba, de esta forma el traslado de datos entre ambos, tanto al hacer la copia como las posibles restauraciones, se producen dentro de esta red sin afectar al tráfico de los clientes con los servidores o entre ellos. Dispositivos de red Los equipos informáticos descritos necesitan de una determinada tecnología que forme la red en cuestión. Según las necesidades se deben seleccionar los elementos adecuados para poder completar el sistema. Por ejemplo, si queremos unir los equipos de una oficina entre ellos debemos conectarlos por medio de un conmutador o un concentrador, si además hay un varios portátiles con tarjetas de red Wi-Fi debemos conectar un punto de acceso inalámbrico para que recoja sus señales y pueda enviarles las que les correspondan, a su vez el punto de acceso estará conectado al conmutador por un cable. Si todos ellos deben disponer de acceso a Internet, se interconectaran por medio de un router, que podría ser ADSL, ethernet sobre fibra óptica, broadband, etc. Los elementos de la electrónica de red más habituales son:  Conmutador, o switch,  Enrutador, o router,  Puente de red, o bridge,  Puente de red y enrutador, o brouter,  Punto de acceso inalámbrico, o WAP (Wireless Access Point), Protocolos de redes Artículo principal: Protocolo de red Existen diversos protocolos, estándares y modelos que determinan el funcionamiento general de las redes. Destacan el modelo OSI y el TCP/IP. Cada modelo estructura el funcionamiento de una red de manera distinta. El modelo OSI cuenta con siete capas muy definidas y con funciones diferenciadas y el TCP/IP con cuatro capas diferenciadas pero que combinan las funciones existentes en las siete capas del modelo OSI.4 Los protocolos están repartidos por las diferentes capas pero no están definidos como parte del modelo en sí sino como entidades diferentes de normativas internacionales, de modo que el modelo OSI no puede ser considerado una arquitectura de red.5 Modelo OSI Artículo principal: Modelo OSI
  • 35. El modelo OSI (Open Systems Interconnection) fue creado por la ISO y se encarga de la conexión entre sistemas abiertos, esto es, sistemas abiertos a la comunicación con otros sistemas. Los principios en los que basó su creación eran: una mayor definición de las funciones de cada capa, evitar agrupar funciones diferentes en la misma capa y una mayor simplificación en el funcionamiento del modelo en general.4 Este modelo divide las funciones de red en siete capas diferenciadas: # Capa Unidad de intercambio 7. Aplicación APDU 6. Presentación PPDU 5. Sesión SPDU 4. Transporte TPDU 3. Red Paquete 2. Enlace Marco / Trama 1. Física Bit Modelo TCP/IP Artículo principal: TCP/IP Este modelo es el implantado actualmente a nivel mundial: fue utilizado primeramente en ARPANET y es utilizado actualmente a nivel global en Internet y redes locales. Su nombre deriva de la unión del los nombres de los dos principales protocolos que lo conforman: TCP en la capa de transporte e IP en la capa de red.6 Se compone de cuatro capas: # Capa Unidad de intercambio 4. Aplicación no definido 3. Transporte Paquete 2. Red / Interred no definido (Datagrama) 1. Enlace / nodo a red ?? Otros estándares Existen otros estándares, más concretos, que definen el modo de funcionamiento de diversas tecnologías de transmisión de datos:
  • 36. Esta lista muestra algunos ejemplos, no es completa. Tecnología Estándar Año de primera publicación Otros detalles Ethernet IEEE 802.3 1983 - Token Ring IEEE 802.5 1970s7 - WLAN IEEE 802.11 19978 - Bluetooth IEEE 802.15 20029 - FDDI ISO 9314-x 1987 Reúne un conjunto de estándares. PPP RFC 1661 199410 - Clasificación de las redes Una red puede recibir distintos calificativos de clasificación en base a distintas taxonomías: alcance, tipo de conexión, tecnología, etc. Por alcance  Red de área personal, o PAN (Personal Area Network) en inglés, es una red de ordenadores usada para la comunicación entre los dispositivos de la computadora cerca de una persona.  Red inalámbrica de área personal, o WPAN (Wireless Personal Area Network), es una red de computadoras inalámbrica para la comunicación entre distintos dispositivos (tanto computadoras, puntos de acceso a internet, teléfonos celulares, PDA, dispositivos de audio, impresoras) cercanos al punto de acceso. Estas redes normalmente son de unos pocos metros y para uso personal, así como fuera de ella. El medio de transporte puede ser cualquiera de los habituales en las redes inalámbricas pero las que reciben esta denominación son habituales en Bluetooth.  Red de área local, o LAN (Local Area Network), es una red que se limita a un área especial relativamente pequeña tal como un cuarto, un solo edificio, una nave, o un avión. Las redes de área local a veces se llaman una sola red de localización. No utilizan medios o redes de interconexión públicos.  Red de área local inalámbrica, o WLAN (Wireless Local Area Network), es un sistema de comunicación de datos inalámbrico flexible, muy utilizado como alternativa a las redes de área local cableadas o como extensión de estas.  Red de área de campus, o CAN (Campus Area Network), es una red de computadoras de alta velocidad que conecta redes de área local a través de un área geográfica limitada, como un campus universitario, una base militar, hospital, etc. Tampoco utiliza medios públicos para la interconexión.
  • 37.  Red de área metropolitana (metropolitan area network o MAN, en inglés) es una red de alta velocidad (banda ancha) que da cobertura en un área geográfica más extensa que un campus, pero aun así limitado. Por ejemplo, un red que interconecte los edificios públicos de un municipio dentro de la localidad por medio de fibra óptica.  Redes de área amplia, o WAN (Wide Area Network), son redes informáticas que se extienden sobre un área geográfica extensa utilizando medios como: satélites, cables interoceánicos, Internet, fibras ópticas públicas, etc.  Red de área de almacenamiento, en inglés SAN (Storage Area Network), es una red concebida para conectar servidores, matrices (arrays) de discos y librerías de soporte, permitiendo el tránsito de datos sin afectar a las redes por las que acceden los usuarios.  Red de área local virtual, o VLAN (Virtual LAN), es un grupo de computadoras con un conjunto común de recursos a compartir y de requerimientos, que se comunican como si estuvieran adjuntos a una división lógica de redes de computadoras en la cual todos los nodos pueden alcanzar a los otros por medio de broadcast (dominio de broadcast) en la capa de enlace de datos, a pesar de su diversa localización física. Este tipo surgió como respuesta a la necesidad de poder estructurar las conexiones de equipos de un edificio por medio de software,11 permitiendo dividir un conmutador en varios virtuales. Por tipo de conexión Medios guiados Véase también: Cableado estructurado  El cable coaxial se utiliza para transportar señales electromagnéticas de alta frecuencia que posee dos conductores concéntricos, uno central, llamado vivo y uno exterior denominado malla o blindaje, que sirve como referencia de tierra y retorno de las corrientes; los cuales están separados por un material dieléctrico que, en realidad, transporta la señal de información.  El cable de par trenzado es una forma de conexión en la que dos conductores eléctricos aislados son entrelazados para tener menores interferencias y aumentar la potencia y disminuir la diafonía de los cables adyacentes. Dependiento de la red se pueden utilizar, uno, dos, cuatro o más pares.  La fibra óptica es un medio de transmisión empleado habitualmente en redes de datos; un hilo muy fino de material transparente, vidrio o materiales plásticos, por el que se envían pulsos de luz que representan los datos a transmitir. Medios no guiados Véanse también: Red inalámbrica y 802.11.  Red por radio es aquella que emplea la radiofrecuencia como medio de unión de las diversas estaciones de la red.  Red por infrarrojos, permiten la comunicación entre dos nodos, usando una serie de leds infrarrojos para ello. Se trata de emisores/receptores de ondas infrarrojas entre ambos dispositivos, cada dispositivo necesita al otro para realizar la comunicación por ello es escasa su utilización a gran escala. No disponen de gran alcacen y necesitan de visibilidad entre los dispositivos.
  • 38.  Red por microondas, es un tipo de red inalámbrica que utiliza microondas como medio de transmisión. Los protocolos más frecuentes son: el IEEE 802.11b y transmite a 2,4 GHz, alcanzando velocidades de 11 Mbps (Megabits por segundo); el rango de 5,4 a 5,7 GHz para el protocolo IEEE 802.11a; el IEEE 802.11n que permite velocidades de hasta 600 Mbps; etc. Por relación funcional  Cliente-servidor es la arquitectura que consiste básicamente en un cliente que realiza peticiones a otro programa (el servidor) que le da respuesta.  Peer-to-peer, o red entre iguales, es aquella red de computadoras en la que todos o algunos aspectos funcionan sin clientes ni servidores fijos, sino una serie de nodos que se comportan como iguales entre sí. Por tecnología  Red Point-To-Point es aquella en la que existe multitud de conexiones entre parejas individuales de máquinas. Este tipo de red requiere, en algunos casos, máquinas intermedias que establezcan rutas para que puedan transmitirse paquetes de datos. El medio electrónico habitual para la interconexión es el conmutador, o switch.  Red broadcast se caracteriza por transmitir datos por un sólo canal de comunicación que comparten todas las máquinas de la red. En este caso, el paquete enviado es recibido por todas las máquinas de la red pero únicamente la destinataria puede procesarlo. Las equipos unidos por un concentrador, o hub, forman redes de este tipo. Por topología física Topologías físicas de red. Véase también: Topología de red  La red en bus se caracteriza por tener un único canal de comunicaciones (denominado bus, troncal o backbone) al cual se conectan los diferentes dispositivos.
  • 39.  En una red en anillo cada estación está conectada a la siguiente y la última está conectada a la primera.  En una red en estrella las estaciones están conectadas directamente a un punto central y todas las comunicaciones se han de hacer necesariamente a través de éste.  En una red en malla cada nodo está conectado a todos los otros.  En una red en árbol los nodos están colocados en forma de árbol. Desde una visión topológica, la conexión en árbol es parecida a una serie de redes en estrella interconectadas salvo en que no tiene un nodo central.  En una red mixta se da cualquier combinación de las anteriores. Anillo: Las estaciones están unidas unas con otras formando un círculo por medio de un cable común. El último nodo de la cadena se conecta al primero cerrando el anillo. Las señales circulan en un solo sentido alrededor del círculo, regenerándose en cada nodo. Con esta metodología, cada nodo examina la información que es enviada a través del anillo. Si la información no está dirigida al nodo que la examina, la pasa al siguiente en el anillo. La desventaja del anillo es que si se rompe una conexión, se cae la red completa. Para ver el gráfico seleccione la opción "Descargar" del menú superior Estrella: Los datos en estas redes fluyen del emisor hasta el concentrador, este realiza todas las funciones de la red, además actúa como amplificador de los datos. La red se une en un único punto, normalmente con un panel de control centralizado, como un concentrador de cableado. Los bloques de información son dirigidos a través del panel de control central hacia sus destinos. Este esquema tiene una ventaja al tener un panel de control que monitorea el tráfico y evita las colisiones y una conexión interrumpida no afecta al resto de la red. Para ver el gráfico seleccione la opción "Descargar" del menú superior Híbridas: El bus lineal, la estrella y el anillo se combinan algunas veces para formar combinaciones de redes híbridas. Anillo en Estrella: Esta topología se utiliza con el fin de facilitar la administración de la red. Físicamente, la red es una estrella centralizada en un concentrador, mientras que a nivel lógico, la red es un anillo. "Bus" en Estrella: El fin es igual a la topología anterior. En este caso la red es un "bus" que se cablea físicamente como una estrella por medio de concentradores. Estrella Jerárquica: Esta estructura de cableado se utiliza en la mayor parte de las redes locales actuales, por medio de concentradores dispuestos en cascada par formar una red jerárquica. Para ver el gráfico seleccione la opción "Descargar" del menú superior Árbol: Esta estructura se utiliza en aplicaciones de televisión por cable, sobre la cual podrían basarse las futuras estructuras de redes que alcancen los hogares. También se ha utilizado en aplicaciones de redes locales analógicas de banda ancha. Trama: Esta estructura de red es típica de las WAN, pero también se puede utilizar en algunas aplicaciones de redes locales (LAN). Las estaciones de trabajo están conectadas cada una con todas las demás. Por la direccionalidad de los datos  Simplex o unidireccional: un equipo terminal de datos transmite y otro recibe.  Half-duplex, en castellano semidúplex: el método o protocolo de envío de información es bidireccional pero no simultáneobidireccional, sólo un equipo transmite a la vez.  Full-duplex, o dúplex,: los dos equipos involucrados en la comunicación lo pueden hacer de forma simultánea, transmitir y recibir. Por grado de autentificación  Red privada: es una red que solo puede ser usada por algunas personas y que está configurada con clave de acceso personal.[cita requerida]  Red de acceso público: una red pública se define como una red que puede usar cualquier persona y no como las redes que están configuradas con clave de acceso personal. Es una
  • 40. red de computadoras interconectados, capaz de compartir información y que permite comunicar a usuarios sin importar su ubicación geográfica.[cita requerida] Por grado de difusión  Una intranet es una red de ordenadores privados que utiliza tecnología Internet para compartir dentro de una organización parte de sus sistemas de información y sistemas operacionales.  Internet es un conjunto descentralizado de redes de comunicación interconectadas que utilizan la familia de protocolos TCP/IP, garantizando que las redes físicas heterogéneas que la componen funcionen como una red lógica única, de alcance mundial. Por servicio o función  Una red comercial proporciona soporte e información para una empresa u organización con ánimo de lucro.  Una red educativa proporciona soporte e información para una organización educativa dentro del ámbito del aprendizaje.  Una red para el proceso de datos proporciona una interfaz para intercomunicar equipos que vayan a realizar una función de cómputo conjunta.[cita requerida] Véase también  Dirección IP  Dirección MAC  Hardware de red  Historia de Internet  Internet  Intranet  Modelo OSI  Red heterogénea  Modelo TCP/IP  Topología de red  MICROCOMPUTADORAS Microcomputadora De Wikipedia, la enciclopedia libre Saltar a: navegación, búsqueda
  • 41. El Commodore 64 fue uno de los más famosos microordenadores de su época, y el modelo mejor vendido de las computadores caseras de todos los tiempos. Una microcomputadora es una computadora pequeña, con un microprocesador como su Unidad Central de Procesamiento (CPU).Generalmente, el microprocesador incluye los circuitos de almacenamiento (o memoria caché) y entrada/salida en el mismo circuito integrado (o chip). Las microcomputadoras se hicieron populares desde 1970 y 1980 con el surgimiento de microprocesadores más potentes. Los predecesores de estas computadoras, las supercomputadoras y las minicomputadoras, eran mucho más grandes y costosas (aunque las supercomputadoras modernas, como IBM System z, utilizan uno o más microprocesadores como CPUs). Muchas microcomputadoras (cuando están equipadas con un teclado y una pantalla para entrada y salida) son también computadoras personales (en sentido general). La abreviatura micro fue comúnmente utilizada durante la década de los 70 y los 80, aunque actualmente esté en desuso. Índice [ocultar]  1 Orígenes  2 Uso coloquial del término  3 Descripción  4 Historia  5 Véase también  6 Referencias Orígenes[editar] El término microcomputadora se hizo popular después de la introducción del término minicomputadoras, aunque Isaac Asimov ya lo había usado en su historia "The Dying Night" en 1956 (publicada en The Magazine of Fantasy and Science Fiction en julio de ese año). Notablemente, la microcomputadora reemplazó los diferentes componentes que conformaban el CPU de las minicomputadoras por un solo microprocesador integrado. Los desarrolladores franceses de Micral-N (1973) archivaron sus patentes con el término
  • 42. "Micro-ordinateur", equivalente literalmente a microcomputadora, para nombrar la primera máquina de estado sólido con un microprocesador. En los Estados Unidos, los primeros modelos tales como Altair 8800, fueron a menudo vendidos como un conjunto que debía ser ensamblado por el usuario, y venían con una RAM de 256 bytes; y como únicos dispositivos de entrada y salida, los indicadores de luz y switches, demostrando a modo de prueba de concepto, cuan simple podía ser un dispositivo. En la medida que los microprocesadores y las memorias semiconductores se hicieron menos costosas, las microcomputadoras se hicieron más baratas y fáciles de usar::  El aumento de chips lógicos menos costosos como las series 7400 permitieron utilizar circuitos dedicados más baratos para mejorar las interfaces de usuarios tales como el teclado, en lugar de switches para procesar un bit por cada vez.  El uso de casetes de audio para almacenar datos permitió el remplazo la reentrada manual de los programas cada vez que los dispositivos se encendían.  Los arrays de puertas lógicas de silicona en forma de memorias de solo lectura y EPROMs permitieron almacenar en las microcomputadoras programas útiles y núcleos de auto booteos. Estos programas de almacenado podían automáticamente cargar software más complejos desde dispositivos de almacenamiento externo, sin la intervención de usuarios para formar un sistema completamente listo que no requería de conocimiento experto en computación para utilizar el dispositivo.  Memorias de acceso aleatorio se convirtieron en lo suficientemente barato para ofrecer aproximadamente 1-2 kilobytes de memoria dedicados a los buffer del dispositivo de control de video, de 40x25 o 80x25 para mostrar textos o bloques de colores gráficos en una pantalla común de televisión. Esto remplazó el costoso, complejo y caro teleimpresor, que era comúnmente utilizado como interfaz de las minicomputadoras y supercomputadoras. Todas estas mejoras en costo y usabilidad resultaron en una explosión de popularidad al final de los 70 y principios de los 80. Un largo número de fabricantes de computadoras empacaron microcomputadoras para ser usadas en aplicaciones de pequeños negocios. Para 1979, muchas compañías, tales como Cromemco, IMSAI, North Star Computers, Southwest Technical Products Corporation, Ohio Scientific, Altos Computer Systems, Morrow Designs y otras, produjeron sistemas como sistemas de bases de datos, contables y procesamiento de texto, diseñados tanto para usuarios con todos los recursos o firmas consultoras, como para sistemas de negocio específicos. Esto permitió a los negocios incapaces de proveer licencias de minicomputadoras o compartir tiempo de servicio, la oportunidad de automatizar sus funciones, sin contratar personal a tiempo completo para operar las computadoras. Un representante de estos sistemas utilizaba un bus S100, un procesador de 8 bit como Intel 8080 o Zilog Z80, y como sistema operativo CP/M o MP/M. El incremento de las capacidades y la fuerza de las computadoras de escritorio para uso personal atrajeron la atención de más desarrolladores de software. Con el paso del tiempo, y el desarrollo de la industria, el mercado de las computadoras personal adoptó estándares compatibles con las computadoras IBM para correr en DOS, y posteriormente en Windows. Las computadoras de escritorio modernas, las consolas de video juegos, las laptops, los table PCs, y muchos otros tipos de dispositivos táctiles, incluidos teléfonos móviles, y
  • 43. sistemas industriales embebidos, pueden ser considerados todos ejemplos de microcomputadoras de acuerdo a las definiciones dadas. Uso coloquial del término[editar] Cada día el uso de la expresión "microcomputadora" (y particularmente la abreviación "micro") ha caído más en desuso desde la mitad de la década de los 80, y ya no es considerado un término común. Este término, comúnmente es asociado con la primera ola de computadoras de 8-bit y las microcomputadoras para negocios pequeños (tales como Apple II, Commodore 64, BBC Micro, and TRS 80). Además, quizás influye la gran variedad de los dispositivos modernos basados en microprocesadores que se ajustan a la definición de "microcomputadoras". Luego el término, "microcomputadora" ha sido suplantado por "computadora personal" or "PC," el cual describe que han sido creadas para ser utilizadas por una persona a la vez. IBM fue el primero en promover el término "computadora personal" para diferenciarlas a ellas mismas de otras microcomputadoras, a menudo llamadas "computadoras caseras", además de las propias supercomputadoras de IBM y las minicomputadoras. Sin embargo, después de su lanzamiento, la propia PC de IBM fue ampliamente imitada, así como el termino microcomputadora. Los componentes eran comúnmente disponibles para los productores y el BIOS era reservado a los ingenieros. Los "clones" de las PC de IBM se convirtieron populares, y los términos "computadora personal," y especialmente "PC" utilizado por el público en general. Desde la llegada de los microcontroladores (circuitos integrados monolíticos que contienen RAM, ROM y CPU todos sobre una misma placa), el término "micro" es más comúnmente utilizado para referirse a ese significado. Descripción[editar] Monitores, teclados y otros dispositivos de entrada y salida pueden estar integrados o separados. La memoria de computadora en forma de RAM, y al menos otro dispositivo de almacenamiento de memoria menos volátil se suele combinar con la CPU en un bus de sistema en una unidad. Otros dispositivos que componen un sistema de microordenador completo incluyen las baterías, una fuente de alimentación, un teclado y varios dispositivos de entrada/salida que se utilizan para transmitir información hacia y desde un operador humano (impresoras, monitores, dispositivos de interfaz humana). Los microordenadores están diseñados para servir a un único usuario a la vez, aunque a menudo se pueden modificar mediante software o hardware para servir al mismo tiempo a más de un usuario. Los microordenadores encajan bien dentro o debajo de los escritorios o mesas, de manera que sean de fácil acceso de los usuarios. Computadoras más grandes como minicomputadoras, computadoras centrales, y supercomputadoras ocupan grandes armarios o incluso salas dedicadas. Una microcomputadora viene equipada con al menos un tipo de almacenamiento de datos, normalmente RAM. Aunque algunos microordenadores (particularmente los primeros micros de 8 bits) realizan tareas utilizando solo la RAM, alguna forma de almacenamiento secundario es normalmente deseable. En los primeros días de los primeros micros, esto era a menudo un reproductor de casetes de datos (en muchos casos como una unidad externa).
  • 44. Más tarde, formas de almacenamiento secundario (sobre todo en forma de disquete y unidades de disco duro) fueron construidas dentro de la computadora. Historia[editar] Una colleción de las primeras microcomputadoras: Processor Technology SOL-20, un MITS Altair 8800, a TV Typewriter, y una Apple I Aunque no contenían ningún microprocesador, y estar construidos alrededor de la lógica transistor-transistor (TTL), las calculadoras Hewlett-Packard ya en 1968 tenía varios niveles de programación tales que se podría llamar microordenadores. El HP 9100B (1968) tenía sentencias condicionales, declaraciones de salto (GO_TO), los registros que se podrían utilizar como variables y subrutinas primitivas. El lenguaje de programación era parecido al lenguaje ensamblador en muchos aspectos. Modelos posteriores fueron añadiendo más características, incluyendo el lenguaje de programación BASIC (HP 9830A in 1971). Algunos modelos tenían almacenamiento en cinta e impresoras pequeñas. Sin embargo, las pantallas se limitaban a una sola línea a la vez. [1] El HP 9100A fue referido como un ordenador personal en un anuncio en una revista de Ciencia de 1968, pero ese anuncio fue abandonado rápidamente. Se sospecha que HP era reacio a llamarlas "computadoras" ya que complicaría los procedimientos de contratación y de exportación del gobierno. El Datapoint 2200, hecho por CTC en 1970, es quizás el mejor candidato para el título de "primer microordenador". A pesar de que no contiene microprocesador, el conjunto de instrucciones de su procesador TTL era la base del conjunto de instrucciones del procesador Intel 8008, y para fines prácticos, el sistema se comporta aproximadamente
  • 45. como si contiene un 8008. Esto es debido a que Intel fue el contratista a cargo de desarrollar el CPU de la Datapoint, pero en última instancia CTC rechazó el diseño de 8008 porque necesitaba el soporte de 20 microchip. Otro de los primeros sistemas, la Kenbak-1, fue lanzado en 1971. Al igual que el Datapoint 2200, utilizó un transistor de lógica discreta en lugar de un microprocesador, pero funcionaba como un microordenador en la mayoría de los aspectos. Se comercializó como una herramienta educativa y un hobby, pero no fue un éxito comercial; su producción cesó poco después. En 1972, un equipo francés dirigido por François Gernelle dentro de una pequeña empresa , Réalisations y Etudes Electroniqes (R2E), desarrolló y patentó un equipo basado en un microprocesador - Intel 8008 de 8 bits de microprocesador. Micral-N se comercializó a principios de 1973 como un "microordenador", principalmente para aplicaciones científicas y de procesos técnicos. Alrededor de un centenar de Micral-N fueron instalados en los próximos dos años, seguido de una nueva versión basada en el Intel 8080. Mientras tanto, otro equipo francés desarrolló el Alvan, un pequeño ordenador para la automatización de la oficina que encontró clientes en los bancos y otros sectores. La primera versión se basa en chips LSI con un controlador periférico Intel 8008 (teclado, monitor e impresora), antes de adoptar el Zilog Z80 como procesador principal. En 1972, un equipo de la Universidad Estatal de Sacramento liderado por Bill Pentz Bill Pentz construyó el equipo Sac State 8008, capaz de manejar miles de registros médicos de los pacientes. El Sac State 8008 fue diseñado con el Intel 8008. Tenía un sistema completo de componentes de hardware y software: un sistema operativo de disco incluido en una serie de sólo lectura programable y chips de memoria (PROM); 8 Kilobytes de RAM; un lenguaje ensamblador básico de IBM (BAL), un disco duro, una pantalla a color; una salida de la impresora; un 150 bit/s interfaz en serie para la conexión a un ordenador central; e incluso el primer panel frontal de microordenador del mundo. Prácticamente los primeros microordenadores eran esencialmente cajas con luces e interruptores; había que leer y entender los números binarios y lenguaje de máquina para programarlos y usarlos (el Datapoint 2200 fue una excepción notable, con un diseño moderno basado en un monitor, el teclado y la cinta y las unidades de disco). De las primeras "cajas de switches" para microordenadores, el MITS Altair 8800 (1975) fue sin duda el más famoso. La mayoría de estos primeros microordenadores simples, fueron vendidos como un conjunto de componentes electrónicos que el comprador tenía que armar antes de que el sistema pudiera ser utilizado. Los microordenadores del período de 1971 a 1976 a veces son llamados la primera generación de microordenadores. Estas máquinas eran para el desarrollo de la ingeniería y el uso personal aficionado. En 1975, la tecnología de procesador SOL- 20 fue diseñado, consistía en una tarjeta, que incluía todas las partes del sistema informático. El SOL-20 se había incorporado en el software EPROM que eliminó la necesidad de filas de switches y luces. El MITS Altair jugó un papel instrumental en despertar el interés significativo de aficionados, que a su vez condujo a la fundación y el éxito de muchas empresas de hardware y software de computadoras personales conocidas como Microsoft y Apple Computer. Aunque la propia Altair sólo fue un éxito comercial moderado, ayudó a desatar una enorme industria.
  • 46. Para 1977, la introducción de la segunda generación, conocidos como los "ordenadores personales", hizo las microcomputadoras considerablemente más fáciles de usar que sus predecesores porque la operación práctica de sus predecesores a menudo exigió profunda familiaridad con la electrónica. La posibilidad de conectar un monitor (pantalla) o un televisor permite la manipulación visual de texto y números. El lenguaje BASIC, que era más fácil de aprender y usar que el lenguaje de máquina puro, se convirtió en una característica estándar. Estas características ya eran comunes en los miniordenadores, con la que muchos aficionados y los primeros productores estaban familiarizados. En 1979, el lanzamiento de la hoja de cálculo VisiCalc (inicialmente para el Apple II) primeramente convirtió el microcomputador de un hobby para entusiastas de la informática en una herramienta de negocios. Después de la liberación de 1981 por parte de IBM de su IBM PC, el ordenador personal se convirtió en término generalmente usado para microcomputadoras compatibles con la arquitectura IBM PC (compatible con PC). En 2012, el computador con una sola tarjeta del tamaño de un tarjeta de crédito Raspberry Pi directamente inspirado por Acorn's BBC Micro 1981 fue lanzado, y contaba con el apoyo a la BBC BASIC. BASE DE DATOS
  • 47. ……………………………………………………………………………………… Tipos de computadoras 1. Computadora analógica: Una computadora analógica u ordenador real es un tipo de computadora que utiliza dispositivos electrónicos o mecánicos para modelar el problema que resuelven utilizando un tipo de cantidad física para representar otra. Para el modelado se utiliza la analogía existente en términos matemáticos de algunas situaciones en diferentes campos. Por ejemplo, la que existe entre los movimientos oscilatorios en mecánica y el análisis de corrientes alternas en electricidad. Estos dos problemas se resuelven por ecuaciones diferenciales y pueden asemejarse términos entre uno y otro problema para obtener una solución satisfactoria. Usado en contraposición a las computadoras digitales, en los cuales los fenómenos físicos o mecánicos son utilizados para construir una máquina de estado finito que es usada después para modelar el problema a resolver. Hay un grupo intermedio, los computadores híbridos, en los que un computador digital es utilizado para controlar y organizar entradas y salidas hacia y desde dispositivos analógicos anexos; por ejemplo, los dispositivos analógicos podrían ser utilizados para generar valores iniciales para iteraciones. Así, un ábaco sería un computador digital, y una regla de cálculo un computador analógico. Los computadores analógicos ideales operan con números reales y son diferenciales, mientras que los computadores digitales se limitan a números computables y son algebraicos. Esto significa que los computadores analógicos tienen una tasa de dimensión de la información (ver teoría de la información), o potencial de dominio informático más grande que los computadores digitales (ver teorema de incompletitud de Gödel). Esto, en teoría, permite a los computadores analógicos resolver problemas que son indescifrables con computadores digitales. Los teóricos de la informática suelen usar el término ordenador real (llamado así porque opera dentro del conjunto de números reales), para evitar los malentendidos populares sobre los computadores analógicos. Algunos ejemplos de computadores analógicos son:  Predictores de marea  Integrador de agua  Computador de datos del objetivo para submarinos
  • 48.  Modelo Hidráulico de la economía del Reino Unido  El mecanismo de Antiquitera  La regla de cálculo. COMPUTADORAS ANALÓGICAS Las computadoras analógicas no computan directamente, sino que perciben constantemente valores, señales o magnitudes físicas variadas. Características de las Computadoras Analógicas  Son las computadoras más rápidas. Todas las computadoras son rápidas pero la naturaleza directa de los circuitos que la componen las hacen más rápidas.  La programación en estas computadoras no es necesaria; las relaciones de cálculo son construidas y forman parte de éstas.  Son máquinas de propósitos específicos.  Dan respuestas aproximadas, ya que están diseñadas para representar electrónicamente algunos conjuntos de daros del mundo real, por lo que sus resultados son cercanos a la realidad. Estos se utilizan generalmente para supervisar las condiciones del mundo real, tales como Viento, Temperatura, Sonido, Movimiento, etc. COMPUTADORAS DIGITALES Son computadoras que operan contando números y haciendo comparaciones lógicas entre factores que tienen valores numéricos. Características de las Computadoras Digitales  Su funcionamiento está basado en el conteo de los valores que le son introducidos.  Este tipo de computadora debe ser programada antes de ser utilizada para algún fin específico.  Son máquinas de propósito general; dado un programa, ellas pueden resolver virtualmente todo tipo de problemas.  Son precisas, proveen exactamente la respuesta correcta a algún problema específico.  Estas computadoras tienen una gran memoria interna, donde pueden ser introducidos millones de caracteres. Estas computadoras son las más utilizadas. En la actualidad el 95% de los computadores utilizados son digitales dado a su gran utilidad a nivel comercial, científico y educativo. Sistema de enumeración: INTRODUCCIÓN
  • 49. En la informática se usaron muchos sistemas de numeración como lo fue el sistema binario, decimal, octal y hexadecimal ya que fueron muy útil para la realización de varios programas pero la tecnología ha avanzado tanto que ya estos sistemas están si se puede decir obsoleto. Para la realización de estos programas se tenia que realizar algunas conversiones , de lo cual se les explicara algunos de ellos En cuanto al software libre suele estar disponible gratuitamente en Internet, o a precio del coste de la distribución a través de otros medios; sin embargo no es obligatorio que sea así y, aunque conserve su carácter de libre, puede ser vendido comercialmente. Existen diversos tipos de software libre entre ellos están el colibrí y el lynux. 1.- SISTEMA DE NUMERACIÓN  Sistema Binarios: Es el sistema de numeración que utiliza internamente hardware de las computadoras actuales. Se basa en la representación de cantidades utilizando los dígitos 1 y 0, por tanto su base es dos (numero de dígitos de sistemas). Cada digito de un numero representado en este sistema se representa en BIT (contracción de binary digit). Suma Binaria: Es semejante a la suma decimal, con la diferencia de que se manejan solo dos dígitos (0 y 1), y que cuando el resultado excede de los símbolos utilizados se agrega el exceso (acarreo) a la suma parcial siguiente hacia la izquierda. Las tablas de sumar son: Tabla del 0 Tabla del 1 0 + 0 = 0 1 + 0 = 1 0 + 1 = 1 1 + 1 =10 (0 con acarreo 1) Ejemplo: Sumar los números binarios 100100 (36) y 10010 (18) 1 0 0 1 0 0………………………36 1 0 0 1 0…………………….+ 18 1 1 0 1 1 0………………………54 Obsérvese que no hemos tenido ningún acarreo en las sumas parciales. Ejemplo: Sumar 11001 (25) y 10011 (19) Resta Binaria: Es similar a la decimal, con la diferencia de que se manejan solo dos dígitos y teniendo en cuenta que al realizar las restas parciales entre dos dígitos de idéntica posiciones, una del minuendo y otra del sustraendo, si el segundo excede al segundo, se sustraes una unidad del digito de mas a la izquierda en el minuendo (si existe y vale 1), convirtiéndose este ultimo en 0 y equivaliendo la unidad extraída a 1*2 en el minuendo de resta parcial que estamos realizando. Si es cero el digito siguiente a la izquierda, se busca en los sucesivos. Las tablas de Resta son: Tabla del 0 Tabla del 1 0 - 0 = 0 1 - 0 = 1 0 - 1 = no cabe 1 - 1 = 0 Ejemplo: 1 1 1 1 1 1 - 1 0 1 0 1 0 0 1 0 1 0 1 Multiplicación binaria: Se realiza similar a la multiplicación decimal salvo que la suma final de los productos se hacen en binarios. Las tableas de Multiplicar son: Tabla del cero (0) Tabla del uno (1) 0 * 0 = 0 1 * 0 = 0 0 * 1 = 0 1 * 1 = 1
  • 50. Ejemplo: División Binaria: Al igual que las operaciones anteriores, se realiza de forma similar a la división decimal salvo que las multiplicaciones y restas Internas al proceso de la división se hacen en binario. Ejemplo:  Sistema Octal: Es sistema de numeración cuya base es 8 , es decir, utiliza 8 símbolos para la representación de cantidades . Estos sistemas es de los llamados posiciónales y la posición de sus cifras se mide con la relación a la coma decimal que en caso de no aparecer se supone implícitamente a la derecha del numero. Estos símbolos son: 0 1 2 3 4 5 6 7  Sistema Decimal: Es uno de los sistema denominado posiciónales, utilizando un conjunto de símbolos cuyo significado depende fundamentalmente de su posición relativa al símbolo, denominado coma (,) decimal que en caso de ausencia se supone colocada a la derecha. Utiliza como base el 10, que corresponde al número del símbolo que comprende para la representación de cantidades; estos símbolos son: 0 1 2 3 4 5 6 7 8 9  Sistema Hexadecimal: Es un sistema posicional de numeración en el que su base es 16, por tanto, utilizara 16 símbolos para la representación de cantidades. Estos símbolos son: 0 1 2 3 4 5 6 7 8 9 A B C D E F SIMBOLOS VALOR ABSOLUTO A 10 B 11 C 12 D 13 E 14 F 15 2.- CONVERSIONES NUMÉRICAS (Explicación y Ejemplo):  Conversión Decimal - Binario:
  • 51. La forma mas simple es dividir sucesivamente el numero decimal y los cocientes que se van obteniendo por 2 hasta que el cociente en una de las divisiones se hagan cero. Ejemplo: Convertir el numero decimal 10 binario  Conversión binaria decimal: El método consiste en rescribir el numero binario en posición vertical de tal forma que la parte de la derecha que en la zona superior y la parte de la izquierda quede en la parte inferior. Se suma el digito al producto de dos con el resultado de la operación anterior, teniendo en cuenta que para el primer digito el resultado de la operación es "0". Ejemplo: Convertir en decimal el numero binario 101011 ¿Qué son las redes sociales? Son sitios web que ofrecen servicios y funcionalidades de comunicación diversospara mantener en contacto a los usuarios de la red. Se basan en un software especialque integra numerosas funciones individuales: blogs, wikis, foros, chat, mensajería,etc. en una misma interfaz y que proporciona la conectividad entre los diversosusuarios de la red. • Son redes de relaciones personales, también llamadas comunidades, queproporcionan sociabilidad, apoyo, información y un sentido de pertenencia eidentidad social. • Son grupos de personas con algunos intereses similares, que se comunican através de proyectos. • Existe un cierto sentido de pertenencia a un grupo con una cultura común: secomparten unos valores, unas normas y un lenguaje en un clima de confianza. •
  • 52. Se utilizan las mismas infraestructuras telemáticas, generalmente basadas en losservicios de software social, que permite comunicaciones de uno a todos y deuno a uno. • Algunos de sus miembros realizan actividades para el mantenimiento del grupo. • Se realizan actividades que propician interacciones entre los integrantes queproporcionan ayuda emotiva y cognitiva. Tipos de redes sociales Existen muchos tipos clasificadas según su propósito y ámbito. Sin embargo,podemos hablar de tres grandes categorías:1.Redes personales. Se componen de cientos o miles de usuarios en los que cadauno tiene su pequeño “espacio” con su información, sus fotos, su música, etc. Ycada uno se puede relacionar con los demás de múltiples maneras, aunquetodas ellas involucran el uso de Internet de una u otra forma. Facebook es unared personal.2.Redes temáticas. Son similares a las anteriores aunque se diferencian por elhecho de que suelen centrarse en un tema en concreto y proporcionan lasfuncionalidades necesarias para el mismo. Por ejemplo, una red de cine, una deinformática, de algún tipo de deporte, etc.3.Redes profesionales. Son una variedad especial de las anteriores, dedicadasexclusivamente al ámbito laboral, en todas sus vertientes. Pueden poner encontacto a aquellos que ofrecen trabajo con los que lo buscan, crear grupos deinvestigación, etc REDES SOCIALES: ¿Qué tipo de redes sociales existen y cuáles son los diferentes usos que tienen? Podemos hablar de que hay 2 tipos de redes sociales que nos podemos encontrar: Analógicas o Redes sociales Off Line Y Digitales o Redes sociales On Line, a continuación explicaremos brevemente de que trata cada una de ellas y luego nos centraremos en la que más nos importa que en este caso son las Redes Sociales On Line. Redes sociales Off Line: son aquellas en las que las relaciones sociales, con independencia de su origen, se desarrollan sin mediación de aparatos o sistemas electrónicos. Un ejemplo de red social analógica lo encontramos en la Sentencia núm. 325/2008 de 22 mayo de la Audiencia Provincial de Valencia (Sección 10ª) que la cita en un caso de adopción y acogimiento de menores, indicando que el "matrimonio [...] cuenta con una amplia red social y familiar y gozan de buena salud […]". Redes sociales On Line: son aquellas en las cuales se necesita que en su origen y en su desarrollo aparezcan los medios electrónicos. A continuación enumeraremos varias clasificaciones de redes sociales para sus usos en la actualidad. REDES SOCIALES ON LINE Por su público objetivo y su temática: Redes sociales Horizontales: Son aquellas dirigidas a todo tipo de usuario y sin una temática definida. Se basan en una estructura de celdillas permitiendo la entrada y participación libre y genérica sin un fin definido, distinto del de generar masa. Los ejemplos más representativos del sector son Facebook o Twitter. Redes sociales Verticales: Están concebidas sobre la base de un eje temático agregador. Su objetivo es el de congregar en torno a una temática definida a un grupo de personas con las mismas inquietudes sobre el tema a tratar. Dependiendo de la especialización, podemos encontrar:
  • 53. Redes sociales Verticales Profesionales: dirigidas para tratar temas laborales entre los usuarios de estas. Por ejemplo: Xing,.. Redes sociales Verticales de Ocio: el objetivo de estas es reunir gente con aficiones deportivas, de ocio, videojuegos,…Por ejemplo podemos encontrar las Futmi (sobre futbol), Moterous, Dogster,… Redes sociales Verticales Mixtas: Ofrecen a sus usuarios y empresas un entorno específico para desarrollar actividades tanto profesionales como personales. Por ejemplo: Yuglo, Unience,… Por el sujeto principal de la relación: Redes sociales Humanas: Son aquellas que centran su atención en fomentar las relaciones entre personas uniendo individuos según su perfil social y en función de sus gustos, aficiones o actividades. Ejemplos de estas son Tuenti, Koornk o Dopprl. Redes sociales de Contenidos: Las relaciones se desarrolla uniendo perfiles a través de contenido publicado, los objetos que posee el usuario o los archivos que se encuentran en su ordenador. Ejemplos de estas redes sociales son Flickr, Scribd o Fileride Redes sociales de Inertes: Conforman un sector novedoso entre las redes sociales. Su objeto es unir marcas, automóviles y lugares. Entre estas redes sociales destacan las de difuntos, siendo éstos los sujetos principales de la red. El ejemplo más destacable sería Respectance. IMAGENES