SlideShare una empresa de Scribd logo
C A P I T U L O  1 INTRODUCCIÓN GENERAL 1.1.- Informática 1.2.- Computación 1.3.- Computadora 1.4.- Dato 1.5.- Información 1.6.- Procesar 1.7.- Programa 1.8.- Hardware 1.9.- Software 1.10.- Algoritmo 1.11.- Sistema informático 1.12.- Firmware 1.13.- Unidades de medida   1.13.1.- Sistema Binario   1.13.2.- Codigo ASCII   1.13.3.- Unidades de medida de tiempo Teoría de Computación.   Ing. Johnny Larrea P.
1.1.- INFORMATICA C iencia encargada del estudio y desarrollo de las computadoras y de los métodos para procesar la información.  El término  informática  se creó en Francia en 1962 Contracción Infor mación auto mática . Ciencia que estudia el tratamiento automático y racional de la información,  Teoría de Computación.   Ing. Johnny Larrea P. Elemento Físico Elemento Lógico Elemento Humano Sustenta
1.2.- COMPUTACIÓN se refería al conjunto de conocimientos, técnicas y formas de uso relativas a computadoras en general.  Teoría de Computación.   Ing. Johnny Larrea P.
DIFERENCIA COMPUTACIÓN E INFORMÁTICA Desde hace aproximadamente 50 años, después de la Segunda Guerra Mundial, tomó auge la tecnología que prácticamente generó el actual significado de la palabra "computación". Su origen lingüístico proviene del latín "computare", cuyo sentido se interpreta conceptualmente "con el pensamiento", y que tomó el significado de "contar o calcular algo con números", según lo define el diccionario de la Real Academia de la Lengua Española.Actualmente, la palabra "computación" comprende un significado tan vasto, que se considera una ciencia completa vinculada fundamentalmente al proceso de información con instrumentos creados por el hombre. En los últimos años, surgió el término "informática", que parece competir con el mismo significado. Muchas personas utilizan hoy ambas palabras en forma aparentemente indistinta, situación que con seguridad se puede atribuir a la mentalidad mercantilista de siglo XX. Cuando en el mercado de "marcas" aparece una que tiene éxito, inmediatamente surge otra que pretende ofrecer lo mismo. Volviendo a la "informática", ésta es una palabra evidentemente derivada del término "información" que, como muchos otros, se mezcla con "automático", adjetivo que tomó fuerza con el desarrollo tecnológico de la posguerra y que, con seguridad, vincula su significado con el concepto "proceso de información". Teoría de Computación.   Ing. Johnny Larrea P.
Entonces surge la pregunta de si "computación" e "informática" son o no sinónimos. Para la palabra "computación", el Pequeño Larrousse de 1986 dice: "Cómputo o cálculo". El Diccionario Enciclopédico Océano Uno de 1990 dice: "Conjunto de disciplinas y técnicas desarrolladas para el tratamiento automático de la información, considerada como soporte de los conocimientos de la sociedad humana, mediante el uso de computadoras". Para la palabra "informática", el Pequeño Larrousse dice: "Ciencia del tratamiento automático y racional de la información considerada como soporte de los conocimientos y las comunicaciones". El Diccionario Océano Uno dice: "ver computación". Si se consultan otras obras especializadas, la complicación se hace mayor, sobre todo porque los autores incorporan sus estilos al presentar estos conceptos. De acuerdo con estas apreciaciones, todo parece indicar que para la mayoría de los casos prácticos, ambos términos son efectivamente sinónimos, aunque no se puede descartar la existencia de algunas diferencias entre ellos. acceso a la información, las áreas temáticas de interés, los sistemas en línea, en vivo, por control remoto o por satélite, los flujos direccionados de información, etcétera. DIFERENCIA COMPUTACIÓN E INFORMÁTICA Teoría de Computación.   Ing. Johnny Larrea P.
Aunque existen nuevos elementos que reflejan las diferencias entre "computación" e "informática", éstos no tendrían valor o significado si no se toma en consideración su relación con las computadoras y con el proceso de la información propiamente dicho, de tal manera que superficialmente justifican la aceptación de la sinonimia entre ambos términos. No obstante, en situaciones donde se haga indispensable hacer énfasis en alguno de estos aspectos, se puede definir esta diferencia del siguiente modo: "Computación" está íntimamente ligada a la tecnología de las computadoras, mientras que "informática" está más bien vinculada a las formas de uso de los resultados. En cualquier caso, se trata de computadoras. DIFERENCIA COMPUTACIÓN E INFORMÁTICA Teoría de Computación.   Ing. Johnny Larrea P.
“ Es una máquina compuesta de elementos físicos de tipo electrónico, capaz de realizar una gran variedad de trabajos a gran velocidad y con gran precisión siempre que se le den las instrucciones adecuadas” . “ Es un dispositivo electrónico que recibe un conjunto de  datos  de entrada, los  procesa  y genera determinados resultados o  información , con gran capacidad para el almacenamiento de los datos y elevada velocidad de cálculo”  1.3.- COMPUTADORA Teoría de Computación.   Ing. Johnny Larrea P. Latín  COMPUTARE  = Contar, Calcular
Son en general cifras originales, tomados de diversas fuentes que, solos, tienen poco significado. El dato es un concepto básico o elemental, como los nombres de las cosas o las cantidades ( un precio, una fecha, el nombre de una persona, ...)  1.4.- DATO Teoría de Computación.   Ing. Johnny Larrea P. $5,78 8 Septiembre Clotilde CAB 1.5687
S on datos “ya trabajados” y con un orden y significado útil para la persona que los recibe. Los datos una vez procesados se convierten en información provechosa.  La información es un conjunto de datos convertidos en una forma útil o inteligible como, por ejemplo, un documento impreso, un recibo, etc.  1.5.- INFORMACIÓN Teoría de Computación.   Ing. Johnny Larrea P.
El procesamiento en una computadora se refiere a la realización de operaciones  aritméticas  ( calcular (+, -, /, *,...), mover, ordenar, comparar (>, =, <,...), buscar, clasificar,... y  lógicas  (decidir: si A > B, implica C).  Para que una computadora pueda procesar datos es necesario suministrarle las reglas (instrucciones adecuadas) para la manipulación de esos datos, las cuales le deben ser dadas en forma de programas.  1.6.- PROCESAR Teoría de Computación.   Ing. Johnny Larrea P.
Es la secuencia de instrucciones (órdenes) que se dan a una computadora para realizar un proceso determinado.  ●  Conjunto de instrucciones escritas en un lenguaje de programación susceptibles de ser ejecutadas por ordenador para realizar una determinada función. ●  Programa = conjunto de datos y de algoritmos 1.7.- PROGRAMA Teoría de Computación.   Ing. Johnny Larrea P.
Son todos los componentes físicos que integran la computadora, junto con los dispositivos que realizan las tareas de entrada y salida.  1.8.- HARDWARE Teoría de Computación.   Ing. Johnny Larrea P.
Son los programas lógicos que intervienen en el funcionamiento y operatividad del Hardware. Es la parte lógica o intangible (Programas) de un sistema informático. Software Operativo  : D.O.S. Windows, Linux, Solaris, etc. Software de Aplicación  : Ofimática, Edición y diseño gráfico de Gestión empresarial, Ingeniería y Ciencia. Software de Desarrollo o de Programación  : Compiladores e Interpretes, Ensambladores, montadores, cargadores, Depuradores y trazadores 1.9.- SOFTWARE Teoría de Computación.   Ing. Johnny Larrea P.
Forma de describir una solución a un problema.  Serie ordenada   y finita de instrucciones elementales que trabaja sobre los datos, posiblemente modificándolos. Conjunto de operaciones necesarias para transformar los datos iniciales en los resultados que se desean obtener en un determinado trabajo. Un algoritmo puede ser elaborado de forma gráfica o escrita y una vez que éste es traducido a un lenguaje de programación es que se denomina programa.  1.10.- ALGORITMO Teoría de Computación.   Ing. Johnny Larrea P.
La unión de tres elementos básicos, el  hardware , el  software   y el  personal informático , cuya principal finalidad es procesar datos y/o información.  1.11.- SISTEMA INFORMATICO Teoría de Computación.   Ing. Johnny Larrea P. 42 * 46 MULTIPLICACION 1932
1.12.- FIRMWARE P ara denominar cierta parte del software (programas objeto de uso común) que traen las computadoras pregrabadas desde su fabricación y que pueden estar en memorias de tipo ROM (memorias de sólo lectura) o incorporadas en su circuitería. También se conoce como firmware a los programas en microcódigo almacenados en una memoria de control de alta velocidad.  Teoría de Computación.   Ing. Johnny Larrea P.
1.13.1.- EL SISTEMA BINARIO Sistema lógico que poseen los computadores digitales para interpretar toda la información procesada en éste.  Toda la información introducida o extraída del computador está codificada en el Sistema de Bit, consiste en la unión de los caracteres  ( 0 , 1 ) ; a partir de ellos son formados códigos para el almacenamiento y manejo de los datos. Lenguaje de máquina Lenguaje de alto nivel 00101101 45 1.13.- UNIDADES DE MEDIDA Teoría de Computación.   Ing. Johnny Larrea P. 0= Negativo (Apagado) 1= Positivo (Encendido) 5V 2 8  =  256
EL SISTEMA BINARIO Recordando que una computadora funciona con impulsos eléctricos que adquieren dos estados.  Bit : Abreviatura en inglés de &quot; Bi nary Digi t &quot; Dígito Binario, se refiere a cada uno de los símbolos que componen un sistema binario, es decir un sistema que utiliza dos símbolos (1 y 0, Verdadero y Falso, Alto y bajo, etc.) para codificar números. Byte : Se denomina así a un conjunto de  8 bit , que puede codificar instrucciones o datos.  1 0 1 0 1 0 1 0 Teoría de Computación.   Ing. Johnny Larrea P.
1.13.2.- CODIGO ASCII AMERICAN STANDARD CODE FOR INFORMATION INTERCHANGE Los bytes pueden tomar un total de 256 valores diferentes gracias a la combinación de valores de los ocho bits de que se componen. Forman un código internacional que permite el intercambio de información entre diversos sistemas informáticos. Este código se llama ASCII.  Teoría de Computación.   Ing. Johnny Larrea P.
1.13.3.- UNIDADES DE MEDIDAS DE TIEMPO Teoría de Computación.   Ing. Johnny Larrea P. Unidades de tiempo útiles en informática
FRECUENCIA Otra noción útil es la  DE FRECUENCIA Teoría de Computación.   Ing. Johnny Larrea P. 1/s = s-1 = 1 Hertz(Hz). 1000/s = 103 s-1 = 1 Kilohertz (KHz) 1000000/s = 106 s-1 = 1 Megahertz (MHz) 1000000000/s = 109 s-1 = 1 Gigahertz (GHz)
HERTZIO (Hz) El Hertzio es la unidad de medida de la frecuencia equivalente a 1/segundo. Utilizado principalmente para los refrescos de pantalla de los monitores, en los que se considera 60 Hz (redibujar 60 veces la pantalla cada segundo) como el mínimo aconsejable. Hoy en día los avances en comunicaciones e informática han hecho que se utilicen más sus múltiplos: kHz, MHz, GHz.
MEGAHERTZIOS (Mhz) Megahertzios, es una medida de frecuencia (número de veces que ocurre algo en un segundo). En el caso de los ordenadores, un equipo a 200 MHz será capaz de dar 200 millones de pasos por segundo. En la velocidad real de trabajo no sólo influyen los MHz, sino también la arquitectura del procesador (y el resto de los componentes); por ejemplo, dentro de la serie X86, un Pentium a 60 MHz era cerca del doble de rápido que un 486 a 66 MHz. Megahertzio, múltiplo del hertzio igual a 1 millón de hertzios. Utilizado para medir la &quot;velocidMegahertzios, es una medida de frecuencia (número de veces que ocurre algo en un segundo). En el caso de los ordenadores, un equipo a 200 MHz será capaz de dar 200 millones de pasos por segundo.  En la velocidad real de trabajo no sólo influyen los MHz, sino también la arquitectura del procesador (y el resto de los componentes); por ejemplo, dentro de la serie X86, un Pentium a 60 MHz era cerca del doble de rápido que un 486 a 66 MHzad bruta&quot; de los microprocesadores.
NANOSEGUNDOS Es una Milmillonésima parte de un segundo. Es decir, en un segundo hay 1.000.000.000 de nanosegundos. Se trata de una escala de tiempo muy pequeña, pero bastante común en los ordenadores, cuya frecuencia de proceso es de unos cientos de Megahercios.  Decir que un procesador es de 500 Mhz, es lo mismo que decir que tiene 500.000.000 ciclos por segundo, o que tiene un ciclo cada 2 ns. Teoría de Computación.   Ing. Johnny Larrea P.
REPRESENTACIÓN DE LOS DATOS SISTEMA DE NUMERACIÓN DECIMAL También llamado sistema de numeración  Base 10 , utiliza  diez dígitos  para representar cualquier cifra. Ellos son: 0, 1, 2, 3, 4, 5, 6, 7, 8, 9 Combinando estos dígitos, podemos construir cualquier número.
Sistema de numeración decimal Ejemplo: El número 348 es un dato representado en sistema de numeración decimal. Lo construimos mediante: 3 x 10 2  + 4 x 10 1  + 8 * 10 0  = 300 + 40 + 8 = 348 Representación de los datos Centena Decena Unidad
SISTEMA DE NUMERACIÓN BINARIO También llamado sistema de numeración  Base 2 , utiliza  dos dígitos  para representar cualquier cifra. Ellos son: 0, 1 Combinando estos dígitos, podemos construir cualquier  número. Ejemplo: El número 110101 es un dato representado en sistema de numeración binario. REPRESENTACIÓN DE LOS DATOS
Sistema de numeración binario Nosotros no estamos familiarizados con el sistema de numeración binario, entendemos más fácilmente los datos representados en sistema decimal.  Para comprender mejor el número 110101, aplicamos un  proceso de conversión , que nos lo muestre en sistema decimal. Representación de los datos
Sistema de numeración binario Ejemplo: El número  110101  en sistema binario equivale a: 1 x 2 5  + 1 x 2 4  + 0 x 2 3  + 1 x 2 2  + 0 x 2 1  + 1 * 2 0  = 32 + 16 + 0 + 4 + 0 + 1 = 53  en sistema decimal. Representación de los datos
Sistema de numeración binario También podemos realizar el proceso inverso. Ejemplo: El número  53  en sistema decimal equivale a: 53 / 2  = 26 ------------------------------------------ Resto: 1 26 / 2 = 13  -------------------------------- Resto: 0 13 / 2 = 6  --------------------------- Resto: 1 6 / 2 = 3 --------------------- Resto: 0 3 / 2 = 1 -------------- Resto: 1  1 / 2 = 0 ------- Resto: 1 110101 binario Representación de los datos
Suma mos  las casillas  que tienen  1  e   ignora mos  las que tienen 0 128 + 8 + 2 =  138  en sistema decimal. Ejercicio : Calcule el equivalente decimal del numero binario  10001010 Representación de los datos 2 0 2 1 2 7 2 6 2 5 2 4 2 3 2 2
Y para los que quieren contar “con los dedos” … Representación de los datos 2 0  =   1 (Dedo pulgar) 2 1  =   2 (Dedo índice) 2 2  =   4 (Dedo corazón) 2 3  =   8 (Dedo anular) 2 4  = 16 (Dedo meñique)
SISTEMA DE NUMERACIÓN OCTAL También llamado sistema de numeración  Base 8 , utiliza  ocho dígitos  para representar cualquier cifra. Ellos son: 0, 1, 2, 3, 4, 5, 6, 7 REPRESENTACIÓN DE LOS DATOS SISTEMA DE NUMERACIÓN HEXADECIMAL También llamado sistema de numeración  Base 16 , utiliza  dieciséis dígitos  para representar cualquier cifra. Ellos son: 0, 1, 2, 3, 4, 5, 6, 7, 8, 9, A, B, C, D, E, F
Los datos viajan, se procesan y se almacenan en los ordenadores a través de impulsos eléctricos. Estos impulsos se representan por dos estados: Prendido o apagado = 1 ó 0 REPRESENTACIÓN DE LOS DATOS Los ordenadores representan todos sus datos en sistema de numeración binario.
Bit : Acrónimo de  B inary Dig it  (Dígito binario), es la mínima unidad de información que viaja y se almacena en un computador. Cada bit representa un impulso eléctrico (1 ó 0). REPRESENTACIÓN DE LOS DATOS Byte : Acrónimo de  B inar y   Te rm (Término binario), es un grupo de 8 bits que el ordenador utiliza para representar cada símbolo o caracter que conocemos, es decir un número, una letra, un signo de puntuación, etc. Con un byte, el ordenador puede representar 256 símbolos o caracteres diferentes. UNIDADES DE MEDIDA PARA ALMACENAMIENTO DE DATOS
Bytes Representación de los datos Ejemplo: Para representar el número 348  ¿Cuántos Bytes necesita nuestra computadora? Unidades de medida para almacenamiento de datos El número está compuesto por 3 dígitos => Necesitamos 3 bytes 00000011 3 00000100 4 00001000 8
El sistema de medición para almacenamiento de datos se fundamenta en: Un Byte como medida base. 1024 (2 10 ) como factor multiplicador para el incremento. Los prefijos: Kilo, Mega, Giga, Tera, etc. Representación de los datos Unidades de medida para almacenamiento de datos Así: 1 KiloByte = 1024 Bytes 1 MegaByte = 1024 KiloBytes = 1024 x 1024 Bytes 1 GigaByte = 1024 MegaBytes = 1024 x 1024 KiloBytes …
Representación de los datos Unidades de medida para almacenamiento de datos Terabytes  Gigabytes  Megabytes  Kilobyte  Byte  Bit 1  8 1  1.024  8.192 1  1.024  1.048.576  8.388.608 1  1.024  1.048.576  1.073.741.824 1  1.024  1.048.576  1.073.741.824
Teoría de Computación.   Ing. Johnny Larrea P.

Más contenido relacionado

PPT
PPT
Fundamentos
PDF
Actividad no 4 mcb
PDF
Tic conceptes
PPSX
¿Que es Tics? erick
DOCX
Definicion de informatica
PPTX
Examen final de power point
PDF
Trabajo de maricarmen andrea
Fundamentos
Actividad no 4 mcb
Tic conceptes
¿Que es Tics? erick
Definicion de informatica
Examen final de power point
Trabajo de maricarmen andrea

La actualidad más candente (9)

DOCX
PPT
Tema 1 cpi
PPT
Clase I Introducción a la Informatica
PDF
Modulo intro (sesion 1)
PDF
Manual Informática basica
DOC
Modulo introducción computación
DOCX
Introducción habilitacion docente 10
PPT
Clase II Introducción a la Informatica
PDF
Intro sesiones 2-3
Tema 1 cpi
Clase I Introducción a la Informatica
Modulo intro (sesion 1)
Manual Informática basica
Modulo introducción computación
Introducción habilitacion docente 10
Clase II Introducción a la Informatica
Intro sesiones 2-3
Publicidad

Similar a Fundamentos (20)

PDF
Funciones básicas de una computadora
PDF
Importancia de las computadoras
PDF
Importancia de las computadoras
PPS
Informatica1(2015)
DOCX
Universidad nacional de chimborazo 2
PPT
Presentación sin título
PPTX
Opera las funciones básicas de una computadora con ejercicios
PPTX
Informática
PDF
INFORMATICA MIND MAPS RESUMEN DEL PRIMER CUATRIMESTRE DE INFORMATICA 1
PDF
computacion-aplicacionesMARITZADURAN.pdf
PDF
computacion-aplicacionesMARITZADURAN.pdf
PPTX
Informatica1(2014)
PPTX
La informatica
PPS
informatica
PPTX
La informatica dantulis ysanti
PPT
IntroduccionalaInformatica.ppt
PPTX
Actividad Nº2 del 1er Corte(Carlos Garces).pptx
PPTX
Informatica i que es la informatica
DOCX
Computación 12
PPTX
Introduccion a la ciencias de la computacion
Funciones básicas de una computadora
Importancia de las computadoras
Importancia de las computadoras
Informatica1(2015)
Universidad nacional de chimborazo 2
Presentación sin título
Opera las funciones básicas de una computadora con ejercicios
Informática
INFORMATICA MIND MAPS RESUMEN DEL PRIMER CUATRIMESTRE DE INFORMATICA 1
computacion-aplicacionesMARITZADURAN.pdf
computacion-aplicacionesMARITZADURAN.pdf
Informatica1(2014)
La informatica
informatica
La informatica dantulis ysanti
IntroduccionalaInformatica.ppt
Actividad Nº2 del 1er Corte(Carlos Garces).pptx
Informatica i que es la informatica
Computación 12
Introduccion a la ciencias de la computacion
Publicidad

Último (20)

PDF
La Evaluacion Formativa en Nuevos Escenarios de Aprendizaje UGEL03 Ccesa007.pdf
PDF
IDH_Guatemala_2.pdfnjjjkeioooe ,l dkdldp ekooe
PDF
TOMO II - LITERATURA.pd plusenmas ultras
PDF
Romper el Circulo de la Creatividad - Colleen Hoover Ccesa007.pdf
DOCX
UNIDAD DE APRENDIZAJE 5 AGOSTO tradiciones
PDF
Atencion prenatal. Ginecologia y obsetricia
DOCX
V UNIDAD - SEGUNDO GRADO. del mes de agosto
PDF
Didactica de la Investigacion Educativa SUE Ccesa007.pdf
PDF
ciencias-1.pdf libro cuarto basico niños
PDF
Unidad de Aprendizaje 5 de Educacion para el Trabajo EPT Ccesa007.pdf
PDF
el - LIBRO-PACTO-EDUCATIVO-GLOBAL-OIEC.pdf
PPTX
AGENTES PATÓGENOS Y LAS PRINCIPAL ENFERMEAD.pptx
PDF
MATERIAL DIDÁCTICO 2023 SELECCIÓN 1_REFORZAMIENTO 1° BIMESTRE.pdf
DOCX
PROYECTO DE APRENDIZAJE para la semana de fiestas patrias
PPTX
caso clínico iam clinica y semiología l3.pptx
DOCX
PLANES DE área ciencias naturales y aplicadas
PDF
Gasista de unidades unifuncionales - pagina 23 en adelante.pdf
PDF
Unidad de Aprendizaje 5 de Matematica 1ro Secundaria Ccesa007.pdf
PDF
5°-UNIDAD 5 - 2025.pdf aprendizaje 5tooo
PDF
Conecta con la Motivacion - Brian Tracy Ccesa007.pdf
La Evaluacion Formativa en Nuevos Escenarios de Aprendizaje UGEL03 Ccesa007.pdf
IDH_Guatemala_2.pdfnjjjkeioooe ,l dkdldp ekooe
TOMO II - LITERATURA.pd plusenmas ultras
Romper el Circulo de la Creatividad - Colleen Hoover Ccesa007.pdf
UNIDAD DE APRENDIZAJE 5 AGOSTO tradiciones
Atencion prenatal. Ginecologia y obsetricia
V UNIDAD - SEGUNDO GRADO. del mes de agosto
Didactica de la Investigacion Educativa SUE Ccesa007.pdf
ciencias-1.pdf libro cuarto basico niños
Unidad de Aprendizaje 5 de Educacion para el Trabajo EPT Ccesa007.pdf
el - LIBRO-PACTO-EDUCATIVO-GLOBAL-OIEC.pdf
AGENTES PATÓGENOS Y LAS PRINCIPAL ENFERMEAD.pptx
MATERIAL DIDÁCTICO 2023 SELECCIÓN 1_REFORZAMIENTO 1° BIMESTRE.pdf
PROYECTO DE APRENDIZAJE para la semana de fiestas patrias
caso clínico iam clinica y semiología l3.pptx
PLANES DE área ciencias naturales y aplicadas
Gasista de unidades unifuncionales - pagina 23 en adelante.pdf
Unidad de Aprendizaje 5 de Matematica 1ro Secundaria Ccesa007.pdf
5°-UNIDAD 5 - 2025.pdf aprendizaje 5tooo
Conecta con la Motivacion - Brian Tracy Ccesa007.pdf

Fundamentos

  • 1. C A P I T U L O 1 INTRODUCCIÓN GENERAL 1.1.- Informática 1.2.- Computación 1.3.- Computadora 1.4.- Dato 1.5.- Información 1.6.- Procesar 1.7.- Programa 1.8.- Hardware 1.9.- Software 1.10.- Algoritmo 1.11.- Sistema informático 1.12.- Firmware 1.13.- Unidades de medida 1.13.1.- Sistema Binario 1.13.2.- Codigo ASCII 1.13.3.- Unidades de medida de tiempo Teoría de Computación. Ing. Johnny Larrea P.
  • 2. 1.1.- INFORMATICA C iencia encargada del estudio y desarrollo de las computadoras y de los métodos para procesar la información. El término informática se creó en Francia en 1962 Contracción Infor mación auto mática . Ciencia que estudia el tratamiento automático y racional de la información, Teoría de Computación. Ing. Johnny Larrea P. Elemento Físico Elemento Lógico Elemento Humano Sustenta
  • 3. 1.2.- COMPUTACIÓN se refería al conjunto de conocimientos, técnicas y formas de uso relativas a computadoras en general. Teoría de Computación. Ing. Johnny Larrea P.
  • 4. DIFERENCIA COMPUTACIÓN E INFORMÁTICA Desde hace aproximadamente 50 años, después de la Segunda Guerra Mundial, tomó auge la tecnología que prácticamente generó el actual significado de la palabra &quot;computación&quot;. Su origen lingüístico proviene del latín &quot;computare&quot;, cuyo sentido se interpreta conceptualmente &quot;con el pensamiento&quot;, y que tomó el significado de &quot;contar o calcular algo con números&quot;, según lo define el diccionario de la Real Academia de la Lengua Española.Actualmente, la palabra &quot;computación&quot; comprende un significado tan vasto, que se considera una ciencia completa vinculada fundamentalmente al proceso de información con instrumentos creados por el hombre. En los últimos años, surgió el término &quot;informática&quot;, que parece competir con el mismo significado. Muchas personas utilizan hoy ambas palabras en forma aparentemente indistinta, situación que con seguridad se puede atribuir a la mentalidad mercantilista de siglo XX. Cuando en el mercado de &quot;marcas&quot; aparece una que tiene éxito, inmediatamente surge otra que pretende ofrecer lo mismo. Volviendo a la &quot;informática&quot;, ésta es una palabra evidentemente derivada del término &quot;información&quot; que, como muchos otros, se mezcla con &quot;automático&quot;, adjetivo que tomó fuerza con el desarrollo tecnológico de la posguerra y que, con seguridad, vincula su significado con el concepto &quot;proceso de información&quot;. Teoría de Computación. Ing. Johnny Larrea P.
  • 5. Entonces surge la pregunta de si &quot;computación&quot; e &quot;informática&quot; son o no sinónimos. Para la palabra &quot;computación&quot;, el Pequeño Larrousse de 1986 dice: &quot;Cómputo o cálculo&quot;. El Diccionario Enciclopédico Océano Uno de 1990 dice: &quot;Conjunto de disciplinas y técnicas desarrolladas para el tratamiento automático de la información, considerada como soporte de los conocimientos de la sociedad humana, mediante el uso de computadoras&quot;. Para la palabra &quot;informática&quot;, el Pequeño Larrousse dice: &quot;Ciencia del tratamiento automático y racional de la información considerada como soporte de los conocimientos y las comunicaciones&quot;. El Diccionario Océano Uno dice: &quot;ver computación&quot;. Si se consultan otras obras especializadas, la complicación se hace mayor, sobre todo porque los autores incorporan sus estilos al presentar estos conceptos. De acuerdo con estas apreciaciones, todo parece indicar que para la mayoría de los casos prácticos, ambos términos son efectivamente sinónimos, aunque no se puede descartar la existencia de algunas diferencias entre ellos. acceso a la información, las áreas temáticas de interés, los sistemas en línea, en vivo, por control remoto o por satélite, los flujos direccionados de información, etcétera. DIFERENCIA COMPUTACIÓN E INFORMÁTICA Teoría de Computación. Ing. Johnny Larrea P.
  • 6. Aunque existen nuevos elementos que reflejan las diferencias entre &quot;computación&quot; e &quot;informática&quot;, éstos no tendrían valor o significado si no se toma en consideración su relación con las computadoras y con el proceso de la información propiamente dicho, de tal manera que superficialmente justifican la aceptación de la sinonimia entre ambos términos. No obstante, en situaciones donde se haga indispensable hacer énfasis en alguno de estos aspectos, se puede definir esta diferencia del siguiente modo: &quot;Computación&quot; está íntimamente ligada a la tecnología de las computadoras, mientras que &quot;informática&quot; está más bien vinculada a las formas de uso de los resultados. En cualquier caso, se trata de computadoras. DIFERENCIA COMPUTACIÓN E INFORMÁTICA Teoría de Computación. Ing. Johnny Larrea P.
  • 7. “ Es una máquina compuesta de elementos físicos de tipo electrónico, capaz de realizar una gran variedad de trabajos a gran velocidad y con gran precisión siempre que se le den las instrucciones adecuadas” . “ Es un dispositivo electrónico que recibe un conjunto de datos de entrada, los procesa y genera determinados resultados o información , con gran capacidad para el almacenamiento de los datos y elevada velocidad de cálculo” 1.3.- COMPUTADORA Teoría de Computación. Ing. Johnny Larrea P. Latín COMPUTARE = Contar, Calcular
  • 8. Son en general cifras originales, tomados de diversas fuentes que, solos, tienen poco significado. El dato es un concepto básico o elemental, como los nombres de las cosas o las cantidades ( un precio, una fecha, el nombre de una persona, ...) 1.4.- DATO Teoría de Computación. Ing. Johnny Larrea P. $5,78 8 Septiembre Clotilde CAB 1.5687
  • 9. S on datos “ya trabajados” y con un orden y significado útil para la persona que los recibe. Los datos una vez procesados se convierten en información provechosa. La información es un conjunto de datos convertidos en una forma útil o inteligible como, por ejemplo, un documento impreso, un recibo, etc. 1.5.- INFORMACIÓN Teoría de Computación. Ing. Johnny Larrea P.
  • 10. El procesamiento en una computadora se refiere a la realización de operaciones aritméticas ( calcular (+, -, /, *,...), mover, ordenar, comparar (>, =, <,...), buscar, clasificar,... y lógicas (decidir: si A > B, implica C). Para que una computadora pueda procesar datos es necesario suministrarle las reglas (instrucciones adecuadas) para la manipulación de esos datos, las cuales le deben ser dadas en forma de programas. 1.6.- PROCESAR Teoría de Computación. Ing. Johnny Larrea P.
  • 11. Es la secuencia de instrucciones (órdenes) que se dan a una computadora para realizar un proceso determinado. ● Conjunto de instrucciones escritas en un lenguaje de programación susceptibles de ser ejecutadas por ordenador para realizar una determinada función. ● Programa = conjunto de datos y de algoritmos 1.7.- PROGRAMA Teoría de Computación. Ing. Johnny Larrea P.
  • 12. Son todos los componentes físicos que integran la computadora, junto con los dispositivos que realizan las tareas de entrada y salida. 1.8.- HARDWARE Teoría de Computación. Ing. Johnny Larrea P.
  • 13. Son los programas lógicos que intervienen en el funcionamiento y operatividad del Hardware. Es la parte lógica o intangible (Programas) de un sistema informático. Software Operativo : D.O.S. Windows, Linux, Solaris, etc. Software de Aplicación : Ofimática, Edición y diseño gráfico de Gestión empresarial, Ingeniería y Ciencia. Software de Desarrollo o de Programación : Compiladores e Interpretes, Ensambladores, montadores, cargadores, Depuradores y trazadores 1.9.- SOFTWARE Teoría de Computación. Ing. Johnny Larrea P.
  • 14. Forma de describir una solución a un problema. Serie ordenada y finita de instrucciones elementales que trabaja sobre los datos, posiblemente modificándolos. Conjunto de operaciones necesarias para transformar los datos iniciales en los resultados que se desean obtener en un determinado trabajo. Un algoritmo puede ser elaborado de forma gráfica o escrita y una vez que éste es traducido a un lenguaje de programación es que se denomina programa. 1.10.- ALGORITMO Teoría de Computación. Ing. Johnny Larrea P.
  • 15. La unión de tres elementos básicos, el hardware , el software y el personal informático , cuya principal finalidad es procesar datos y/o información. 1.11.- SISTEMA INFORMATICO Teoría de Computación. Ing. Johnny Larrea P. 42 * 46 MULTIPLICACION 1932
  • 16. 1.12.- FIRMWARE P ara denominar cierta parte del software (programas objeto de uso común) que traen las computadoras pregrabadas desde su fabricación y que pueden estar en memorias de tipo ROM (memorias de sólo lectura) o incorporadas en su circuitería. También se conoce como firmware a los programas en microcódigo almacenados en una memoria de control de alta velocidad. Teoría de Computación. Ing. Johnny Larrea P.
  • 17. 1.13.1.- EL SISTEMA BINARIO Sistema lógico que poseen los computadores digitales para interpretar toda la información procesada en éste. Toda la información introducida o extraída del computador está codificada en el Sistema de Bit, consiste en la unión de los caracteres ( 0 , 1 ) ; a partir de ellos son formados códigos para el almacenamiento y manejo de los datos. Lenguaje de máquina Lenguaje de alto nivel 00101101 45 1.13.- UNIDADES DE MEDIDA Teoría de Computación. Ing. Johnny Larrea P. 0= Negativo (Apagado) 1= Positivo (Encendido) 5V 2 8 = 256
  • 18. EL SISTEMA BINARIO Recordando que una computadora funciona con impulsos eléctricos que adquieren dos estados. Bit : Abreviatura en inglés de &quot; Bi nary Digi t &quot; Dígito Binario, se refiere a cada uno de los símbolos que componen un sistema binario, es decir un sistema que utiliza dos símbolos (1 y 0, Verdadero y Falso, Alto y bajo, etc.) para codificar números. Byte : Se denomina así a un conjunto de 8 bit , que puede codificar instrucciones o datos. 1 0 1 0 1 0 1 0 Teoría de Computación. Ing. Johnny Larrea P.
  • 19. 1.13.2.- CODIGO ASCII AMERICAN STANDARD CODE FOR INFORMATION INTERCHANGE Los bytes pueden tomar un total de 256 valores diferentes gracias a la combinación de valores de los ocho bits de que se componen. Forman un código internacional que permite el intercambio de información entre diversos sistemas informáticos. Este código se llama ASCII. Teoría de Computación. Ing. Johnny Larrea P.
  • 20. 1.13.3.- UNIDADES DE MEDIDAS DE TIEMPO Teoría de Computación. Ing. Johnny Larrea P. Unidades de tiempo útiles en informática
  • 21. FRECUENCIA Otra noción útil es la DE FRECUENCIA Teoría de Computación. Ing. Johnny Larrea P. 1/s = s-1 = 1 Hertz(Hz). 1000/s = 103 s-1 = 1 Kilohertz (KHz) 1000000/s = 106 s-1 = 1 Megahertz (MHz) 1000000000/s = 109 s-1 = 1 Gigahertz (GHz)
  • 22. HERTZIO (Hz) El Hertzio es la unidad de medida de la frecuencia equivalente a 1/segundo. Utilizado principalmente para los refrescos de pantalla de los monitores, en los que se considera 60 Hz (redibujar 60 veces la pantalla cada segundo) como el mínimo aconsejable. Hoy en día los avances en comunicaciones e informática han hecho que se utilicen más sus múltiplos: kHz, MHz, GHz.
  • 23. MEGAHERTZIOS (Mhz) Megahertzios, es una medida de frecuencia (número de veces que ocurre algo en un segundo). En el caso de los ordenadores, un equipo a 200 MHz será capaz de dar 200 millones de pasos por segundo. En la velocidad real de trabajo no sólo influyen los MHz, sino también la arquitectura del procesador (y el resto de los componentes); por ejemplo, dentro de la serie X86, un Pentium a 60 MHz era cerca del doble de rápido que un 486 a 66 MHz. Megahertzio, múltiplo del hertzio igual a 1 millón de hertzios. Utilizado para medir la &quot;velocidMegahertzios, es una medida de frecuencia (número de veces que ocurre algo en un segundo). En el caso de los ordenadores, un equipo a 200 MHz será capaz de dar 200 millones de pasos por segundo. En la velocidad real de trabajo no sólo influyen los MHz, sino también la arquitectura del procesador (y el resto de los componentes); por ejemplo, dentro de la serie X86, un Pentium a 60 MHz era cerca del doble de rápido que un 486 a 66 MHzad bruta&quot; de los microprocesadores.
  • 24. NANOSEGUNDOS Es una Milmillonésima parte de un segundo. Es decir, en un segundo hay 1.000.000.000 de nanosegundos. Se trata de una escala de tiempo muy pequeña, pero bastante común en los ordenadores, cuya frecuencia de proceso es de unos cientos de Megahercios. Decir que un procesador es de 500 Mhz, es lo mismo que decir que tiene 500.000.000 ciclos por segundo, o que tiene un ciclo cada 2 ns. Teoría de Computación. Ing. Johnny Larrea P.
  • 25. REPRESENTACIÓN DE LOS DATOS SISTEMA DE NUMERACIÓN DECIMAL También llamado sistema de numeración Base 10 , utiliza diez dígitos para representar cualquier cifra. Ellos son: 0, 1, 2, 3, 4, 5, 6, 7, 8, 9 Combinando estos dígitos, podemos construir cualquier número.
  • 26. Sistema de numeración decimal Ejemplo: El número 348 es un dato representado en sistema de numeración decimal. Lo construimos mediante: 3 x 10 2 + 4 x 10 1 + 8 * 10 0 = 300 + 40 + 8 = 348 Representación de los datos Centena Decena Unidad
  • 27. SISTEMA DE NUMERACIÓN BINARIO También llamado sistema de numeración Base 2 , utiliza dos dígitos para representar cualquier cifra. Ellos son: 0, 1 Combinando estos dígitos, podemos construir cualquier número. Ejemplo: El número 110101 es un dato representado en sistema de numeración binario. REPRESENTACIÓN DE LOS DATOS
  • 28. Sistema de numeración binario Nosotros no estamos familiarizados con el sistema de numeración binario, entendemos más fácilmente los datos representados en sistema decimal. Para comprender mejor el número 110101, aplicamos un proceso de conversión , que nos lo muestre en sistema decimal. Representación de los datos
  • 29. Sistema de numeración binario Ejemplo: El número 110101 en sistema binario equivale a: 1 x 2 5 + 1 x 2 4 + 0 x 2 3 + 1 x 2 2 + 0 x 2 1 + 1 * 2 0 = 32 + 16 + 0 + 4 + 0 + 1 = 53 en sistema decimal. Representación de los datos
  • 30. Sistema de numeración binario También podemos realizar el proceso inverso. Ejemplo: El número 53 en sistema decimal equivale a: 53 / 2 = 26 ------------------------------------------ Resto: 1 26 / 2 = 13 -------------------------------- Resto: 0 13 / 2 = 6 --------------------------- Resto: 1 6 / 2 = 3 --------------------- Resto: 0 3 / 2 = 1 -------------- Resto: 1 1 / 2 = 0 ------- Resto: 1 110101 binario Representación de los datos
  • 31. Suma mos las casillas que tienen 1 e ignora mos las que tienen 0 128 + 8 + 2 = 138 en sistema decimal. Ejercicio : Calcule el equivalente decimal del numero binario 10001010 Representación de los datos 2 0 2 1 2 7 2 6 2 5 2 4 2 3 2 2
  • 32. Y para los que quieren contar “con los dedos” … Representación de los datos 2 0 = 1 (Dedo pulgar) 2 1 = 2 (Dedo índice) 2 2 = 4 (Dedo corazón) 2 3 = 8 (Dedo anular) 2 4 = 16 (Dedo meñique)
  • 33. SISTEMA DE NUMERACIÓN OCTAL También llamado sistema de numeración Base 8 , utiliza ocho dígitos para representar cualquier cifra. Ellos son: 0, 1, 2, 3, 4, 5, 6, 7 REPRESENTACIÓN DE LOS DATOS SISTEMA DE NUMERACIÓN HEXADECIMAL También llamado sistema de numeración Base 16 , utiliza dieciséis dígitos para representar cualquier cifra. Ellos son: 0, 1, 2, 3, 4, 5, 6, 7, 8, 9, A, B, C, D, E, F
  • 34. Los datos viajan, se procesan y se almacenan en los ordenadores a través de impulsos eléctricos. Estos impulsos se representan por dos estados: Prendido o apagado = 1 ó 0 REPRESENTACIÓN DE LOS DATOS Los ordenadores representan todos sus datos en sistema de numeración binario.
  • 35. Bit : Acrónimo de B inary Dig it (Dígito binario), es la mínima unidad de información que viaja y se almacena en un computador. Cada bit representa un impulso eléctrico (1 ó 0). REPRESENTACIÓN DE LOS DATOS Byte : Acrónimo de B inar y Te rm (Término binario), es un grupo de 8 bits que el ordenador utiliza para representar cada símbolo o caracter que conocemos, es decir un número, una letra, un signo de puntuación, etc. Con un byte, el ordenador puede representar 256 símbolos o caracteres diferentes. UNIDADES DE MEDIDA PARA ALMACENAMIENTO DE DATOS
  • 36. Bytes Representación de los datos Ejemplo: Para representar el número 348 ¿Cuántos Bytes necesita nuestra computadora? Unidades de medida para almacenamiento de datos El número está compuesto por 3 dígitos => Necesitamos 3 bytes 00000011 3 00000100 4 00001000 8
  • 37. El sistema de medición para almacenamiento de datos se fundamenta en: Un Byte como medida base. 1024 (2 10 ) como factor multiplicador para el incremento. Los prefijos: Kilo, Mega, Giga, Tera, etc. Representación de los datos Unidades de medida para almacenamiento de datos Así: 1 KiloByte = 1024 Bytes 1 MegaByte = 1024 KiloBytes = 1024 x 1024 Bytes 1 GigaByte = 1024 MegaBytes = 1024 x 1024 KiloBytes …
  • 38. Representación de los datos Unidades de medida para almacenamiento de datos Terabytes Gigabytes Megabytes Kilobyte Byte Bit 1 8 1 1.024 8.192 1 1.024 1.048.576 8.388.608 1 1.024 1.048.576 1.073.741.824 1 1.024 1.048.576 1.073.741.824
  • 39. Teoría de Computación. Ing. Johnny Larrea P.