SlideShare una empresa de Scribd logo
TIC
“ Las Tecnologías de la Información y la Comunicación (TIC) son todas aquellas que giran en torno a las
tecnologías de almacenamiento, procesamiento, recuperación y comunicación de la información a
través de diferentes dispositivos electrónicos e informáticos. A continuación se muestra un libro
electrónico con información sobre ellas: “
Redes sociales
Una red social (en plural, redes sociales, abreviado como RR. SS.) es una estructura social compuesta por
un conjunto de actores y uno o más lazos o relaciones definidos entre ellos. Su estudio se remonta a los
años 1930, con la creación de los sociogramas por parte de Jacob Levy Moreno y Helen Hall Jennings,
que dieron origen a la sociometría, precursora del análisis de redes sociales y buena parte de la
psicología social. Desde finales de los años 1940, se han estudiado además en profundidad mediante la
teoría de grafos. El análisis de redes sociales es un estudio interdisciplinario en el que confluyen las
ciencias sociales y del comportamiento, así como matemáticas y estadísticas.
Actualmente, las redes sociales representan uno de los mayores paradigmas de la sociología
contemporánea y del comportamiento organizacional. La creación de redes sociales en línea ha derivado
en redes complejas, que son el objeto de estudio de la ciencia de redes. Debido a los grandes volúmenes
de datos de este tipo de redes, para su estudio se suelen utilizar además herramientas y técnicas de las
ciencias de la computación.
Tecnologías inalámbricas
La comunicación inalámbrica o sin cables es aquella en la que la comunicación (emisor/receptor) no se
encuentra unida por un medio de propagación físico, sino que se utiliza la modulación de ondas
electromagnéticas a través del espacio. En este sentido, los dispositivos físicos solo están presentes en
los emisores y receptores de la señal, entre los cuales se encuentran antenas, computadoras portátiles,
PDAs, teléfonos móviles, etcétera.
La comunicación inalámbrica, que se realiza a través de ondas de radiofrecuencia, facilita la operación
en lugares donde la computadora no se encuentra en una ubicación fija (almacenes, oficinas de varios
pisos, etc.) actualmente se utiliza de una manera general y accesible para todo público. Cabe también
mencionar que las redes cableadas presentan ventaja en cuanto a transmisión de datos sobre las
inalámbricas. Mientras que las cableadas proporcionan velocidades de hasta 1 Gbit/s (Red Gigabit), las
inalámbricas alcanzan solo hasta 108 Mbit/s. [cita requerida]
Se puede realizar una “mezcla” entre inalámbricas y alámbricas, de manera que pueden funcionar de la
siguiente manera: que el sistema cableado sea la parte principal y la inalámbrica sea la que le
proporcione movilidad al equipo y al operador para desplazarse con facilidad en distintos campo
(almacén u oficina).
Un ejemplo de redes a larga distancia son las Redes públicas de Conmutación por Radio. Estas redes no
tienen problemas en pérdida de señal, debido a que su arquitectura está diseñada para soportar
paquetes de datos en vez de comunicaciones por voz.
Actualmente, las transmisiones inalámbricas constituyen una eficaz herramienta que permite la
transferencia de voz, datos y vídeo sin la necesidad de cableado. Esta transferencia de información es
lograda a través de la emisión de ondas de radio teniendo dos ventajas: movilidad y flexibilidad del
sistema en general.
Hardware de Conexión
Un dispositivo de interconexión de redes es un término ampliamente utilizado para cualquier hardware
que conecte diferentes recursos de red. Los dispositivos clave que comprenden una red son
conmutadores, enrutadores, brigde (puentes), repetidores y puertas de enlace.
Todos los dispositivos tienen características de alcance por separado, según los requisitos y escenarios
de la red. Los siguientes son escenarios de interconexión:
Una sola LAN
Dos LAN conectadas entre sí (LAN-LAN)
Una LAN conectada a una WAN (LAN-WAN)
Dos LAN conectadas a través de una WAN (LAN-WAN-LAN)
Para entender los diversos dispositivos de interconexión de redes, creamos el siguiente glosario.
-Repetidores
Se utilizan para extender la longitud de la red. Fueron creados para regenerar y amplificar señales
débiles, extendiendo así la longitud de la red. La función básica de un repetidor es remodelar y
reamplificar la señal de datos a su nivel original.
Las características importantes de estos equipos son las siguientes:
Conectar diferentes segmentos de red de una LAN
Reenviar cada paquete que recibe
Un repetidor es un regenerador, no un amplificador
Los repetidores operan en la capa física del modelo OSI
-Hubs
Un Hub es básicamente un repetidor multipuerto, actúa como concentrador y conecta múltiples cables
provenientes de diferentes conexiones. Los concentradores no pueden filtrar datos, por lo que los
paquetes de datos se envían a todos los dispositivos conectados, el dominio de colisión de todos los
hosts conectados a través de Hub sigue siendo uno.
Los Hubs no tienen inteligencia para encontrar la mejor ruta para los paquetes, las consecuencias:
ineficiencia y desperdicio.
Antivirus
Los antivirus son programas cuyo objetivo es detectar y eliminar virus informáticos.1 Con el paso del
tiempo, los antivirus han evolucionado hacia programas más avanzados que además de buscar y
detectar virus informáticos consiguen bloquearlos, desinfectar archivos y prevenir una infección de
estos. Actualmente son capaces de reconocer otros tipos de malware, como spyware, gusanos,
troyanos, rootkits y pseudovirus.
Los antivirus utilizan distintos tipos de mecanismos para detectar virus. Como demostró Frederick Cohen
ningún método es totalmente efectivo para identificar un virus.3Los tipos de mecanismos más usados
por los antivirus para detectar virus son:
Basados en Firma de virus: El antivirus dispone de una base de datos en las que almacena firmas de
virus. En el pasado estas firmas eran hashes con los que se intentaba ajustar todos los ficheros del
equipo analizado. Esta medida es fácil de eludir cambiando cualquier instrucción del código y el hash
resultante no coincidiría con ninguna firma de la base de datos. No tardó en sofisticarse esa técnica y se
empezó a intentar buscar una secuencia de bytes concreta en cada muestra de malware que lo
identificara, así de esta manera, tendrías que saber que parte del código es con la que han identificado
tu binario para modificarla y no ser detectable. Es habitual el uso de reglas Yara para declarar patrones
específicos para detectar un malware concreto.4 Para luchar contra estas firmas en los malware se
emplearon codificadores que modificaban todo el código del binario. Ejemplos de codificadores son el
básico XOR o el “Shikata ga nai” de Metasploit que añadía una capa de polimorfismo, generando una
cadena de bits diferente cada vez que se produce la codificación. También surgieron los packers que
encapsulaban el código dentro del binario y lo cifraban, de tal manera que las firmas no eran capaces de
ser útiles. La debilidad de estos sistemas es que en el código hay que añadir las instrucciones necesarias
para el desempaquetado del código y eso puede generar firmas que identifiquen un binario como
potencialmente malicioso.
Basados en Detección heurística: Consiste en el escaneo de los archivos buscando patrones de código
que se asemejan a los que se usan en los virus. Ya no es necesaria una coincidencia exacta con una firma
de virus almacenada si no que se buscan similitudes más generales aplicando algoritmos.
Basados en Detección por comportamiento: consiste en escanear el sistema tras detectar un fallo o mal
funcionamiento. Por lo general, mediante este mecanismo se pueden detectar software ya identificado
o no, pero es una medida que se usa tras la infección.
Basados en la Detección por caja de arena (o sandbox): consiste en ejecutar el software en máquinas
virtuales y determinar si el software ejecuta instrucciones maliciosas o no. A pesar de que este
mecanismo es seguro, toma bastante tiempo ejecutar las pruebas antes de ejecutar el software en la
máquina real.
Basados en la Detección por inteligencia artificial: consiste en el uso de tecnologías de inteligencia
artificial para detectar comportamiento malicioso. Ejemplos de antivirus que san estas tecnologías son
MIT AI2 (desarrollado por el MIT y IBM Watson for Cyber Security (desarrollado por IBM).
Basado en Indicadores de compromiso (IDC): Una vez los IDC han sido identificados pueden ser
utilizados para la detección temprana de intentos de ataque que utilizan sistemas antivirus.
Los antivirus tradicionalmente se ejecutan en el sistema analizado y utiliza la red para actualizar su
software y datos. Los antivirus en la nube lo que hacen es delegar la mayor parte del procesamiento del
antivirus en la nube. Hay que establecer decisión de que procesamientos son lo suficientemente
importantes como para incluirlas en el cliente local sin saturar y cuáles deberían permanecer en un
servidor en la nube. Las principales ventajas que se tienen son: acceso más rápido a actualizaciones de
software y datos (no depender de actualización manual o de las actualizaciones automáticas
programadas), el cliente del antivirus en el equipo a analizar es mucho más pequeño y requiere poco
procesamiento dejando recursos para nuestro uso, facilidad de uso e instalación. Las principales
desventajas son: dependencia con respecto a la conexión, posibles problemas de privacidad al enviar
datos a la nube y posible foco de infección secundaria al subir datos a la nube.
Navegador web
Un navegador web (en inglés, web browser) es un software, aplicación o programa que permite el
acceso a la Web, interpretando la información de distintos tipos de archivos y sitios web para que estos
puedan ser vistos.
La funcionalidad básica de un navegador web es permitir la visualización de documentos de texto,
posiblemente con recursos multimedia incrustados. Además, permite visitar páginas web y hacer
actividades en ella, es decir, enlazar un sitio con otro, imprimir, enviar y recibir correos, entre otras
funcionalidades más.
Los documentos que se muestran en un navegador pueden estar ubicados en la computadora donde
está el usuario y también pueden estar en cualquier otro dispositivo conectado en la computadora del
usuario o a través de Internet, y que tenga los recursos necesarios para la transmisión de los
documentos (un software servidor web).
Tales documentos, comúnmente denominados páginas web, poseen hiperenlaces o hipervínculos que
enlazan una porción de texto o una imagen a otro documento, normalmente relacionado con el texto o
la imagen.
El seguimiento de enlaces de una página a otra, ubicada en cualquier computadora conectada a
Internet, se llama navegación, de donde se origina el nombre navegador (aplicado tanto para el
programa como para la persona que lo utiliza, a la cual también se le llama cibernauta). Por otro lado,
ojeador es una traducción literal del original en inglés, browser, aunque su uso es minoritario.
Los navegadores web se han convertido en las herramientas más populares de acceso a Internet. Por
esa razón explotar sus vulnerabilidades se han convertido en un objetivo muy interesante para atacar
los sistemas informáticos en los que se instalan. Es tal el interés, que se han desarrollado herramientas
automáticas para explotar vulnerabilidades en los navegadores.
El primer navegador fue desarrollado por Tim Berners-Lee, en la CERN, en 1990; el navegador web
llamado WorldWideWeb era bastante sofisticado y gráfico, pero solo funcionaba en estaciones NexT.
El navegador Mosaic, que funcionaba inicialmente en entornos Unix sobre XFree86 (X11), fue el primero
que se extendió debido a que pronto el National Center for Supercomputing Applications (NCSA)
preparó versiones para Windows y Macintosh.
Sin embargo, Netscape Navigator al poco tiempo entró en el mercado y rápidamente superó en
capacidades y velocidad al Mosaic. Este navegador tuvo la ventaja de funcionar en casi todos los
sistemas Unix, y también en entornos Windows.
Internet Explorer (anteriormente Spyglass Mosaic) fue la apuesta tardía de Microsoft para entrar en el
mercado y consiguió desbancar al Netscape Navigator entre los usuarios de Windows, debido a la
integración del navegador con el sistema operativo, llegando a poseer cerca del 95% de la cuota de
mercado. Netscape Communications Corporation liberó el código fuente de su navegador, naciendo así
el proyecto Mozilla.
Comercio electrónico
El comercio electrónico —también conocido como e-commerce (electronic commerce en inglés),
comercio por Internet o comercio en línea— consiste en la compra y venta de productos o de servicios a
través de internet, tales como redes sociales y otras páginas web. También puede ser definido como una
actividad económica que permite el comercio de diferentes productos y servicios a partir de medios
digitales, como páginas web, aplicaciones móviles y redes sociales. Por medio de la red virtual, los
clientes pueden acceder a diversos catálogos de marcas, servicios y productos, en todo momento y en
cualquier lugar.
Originalmente, el término se aplicaba a la realización de transacciones mediante medios electrónicos
tales como el intercambio electrónico de datos; sin embargo, con el advenimiento del Internet y del
World Wide Web, a mediados de la década de 1990 comenzó a referirse principalmente a la venta de
bienes y servicios a través de Internet, usando como forma de pago medios electrónicos tales como las
tarjetas de crédito y nuevas metodologías, como el pago móvil o las plataformas de pago. Vender y
comprar ya es una tarea bastante sencilla propiciada, desde luego, por la tecnología, como los
dispositivos móviles con acceso a la red.
La cantidad de comercio llevada a cabo electrónicamente ha crecido de manera extraordinaria debido a
Internet. Una gran variedad de comercio se realiza de esta manera, estimulando la creación y utilización
de innovaciones como la transferencia de fondos electrónica, la administración de cadenas de
suministro, el marketing en Internet, el procesamiento de transacciones en línea (OLTP), el intercambio
electrónico de datos (EDI), los sistemas de administración del inventario y los sistemas automatizados de
recolección de datos.
La mayor parte del comercio electrónico consiste en la compra y venta de productos o servicios entre
personas y empresas, sin embargo un porcentaje considerable del comercio electrónico consiste en la
adquisición de artículos virtuales (software y derivados en su mayoría), tales como el acceso a contenido
"premium" de un sitio web.
En 2017, dos mil millones de personas realizaron una transacción de comercio electrónico móvil,3dando
lugar a una tasa de crecimiento interanual de un 23,4% según la Comisión Nacional de los Mercados y la
Competencia (CNMC).
En el 2020, 70% de los mercadólogos ven más efectivas las estrategias SEO que las campañas de
marketing pagadas., 53% de los consumidores buscan un producto en internet, independientemente si
lo van o no a comprar y “Donde comprar” + “mi área ó cerca de mí” ha aumentado su búsqueda 200%
en los últimos 2 años.
En los contratos de comercio electrónico el proveedor tiene un fuerte deber de información, que incluye
todos los datos necesarios para usar correctamente el medio electrónico que se usa para la compra, los
datos necesarios para comprender los riesgos de la contratación por ese medio electrónico y quién
asume dichos riesgos, así como la información sobre el derecho a dejar sin efecto el contrato de compra.
Durante 2020, el comercio electrónico facturó un total de 4.2 billones de dólares en todo el mundo.
Mientras que América Latina mostró un crecimiento importante de 36.7%, incluso mayor que el de la
región Asia-Pacífico (26.4%). En 2021 esta tendencia de crecimiento no fue diferente, se estima que el
comercio electrónico global creció un 16.8% en ingresos en comparación con 2020, lo que representa
aproximadamente 4.9 billones de dólares en el año.
Servicios Peer to Peer (P2P)
Una red peer-to-peer, red de pares, red entre iguales o red entre pares (P2P, por sus siglas en inglés) es
una red de ordenadores en la que todos o algunos aspectos funcionan sin clientes ni servidores fijos,
sino una serie de nodos que se comportan como iguales entre sí. Es más, actúan simultáneamente como
clientes y servidores respecto a los demás nodos de la red. Las redes P2P permiten el intercambio
directo de información, en cualquier formato, entre los ordenadores interconectados.
Cuando un cliente entra a este sistema hace una conexión directa a uno de estos últimos, en donde
recolecta y almacena toda la información y contenido disponible para compartir. Se trata entonces de
un programa cuya función es la de conectar a los usuarios a través de una red sin servidores que facilita
la descarga de música, películas, libros, fotos y software entre todos los otros usuarios, de manera
gratuita. Estos archivos son compartidos “de computador a computador” por el solo hecho de tener
acceso al sistema.
Normalmente este tipo de redes se implementan como redes superpuestas construidas en la capa de
aplicación de redes públicas como Internet.
El hecho de que sirvan para compartir e intercambiar información de forma directa entre dos o más
usuarios ha propiciado que parte de los usuarios lo utilicen para intercambiar archivos cuyo contenido
está sujeto a las leyes de derechos de autor, lo que ha generado una gran polémica entre defensores y
detractores de estos sistemas.
Las redes peer-to-peer aprovechan, administran y optimizan el uso del ancho de banda de los demás
usuarios de la red por medio de la conectividad entre los mismos, y obtienen así más rendimiento en las
conexiones y transferencias que con algunos métodos centralizados convencionales, donde una
cantidad relativamente pequeña de servidores provee el total del ancho de banda y recursos
compartidos para un servicio o aplicación.
Dichas redes son útiles para diversos propósitos. A menudo se usan para compartir ficheros (archivos)
de cualquier tipo (por ejemplo, audio, vídeo o software). Este tipo de red también suele usarse en
telefonía VoIP para hacer más eficiente la transmisión de datos en tiempo real.
La eficacia de los nodos en el enlace y transmisión de datos puede variar según su configuración local
(cortafuegos, NAT, ruteadores, etc.), velocidad de proceso, disponibilidad de ancho de banda de su
conexión a la red y capacidad de almacenamiento en disco, pero mientras el número de nodos crezca
más difícil será la administración de recursos de la red, y la seguridad puede ser afectada, ya que si un
nodo es infectado es posible que pueda infectar a cada nodo de la red, dado que a mayor número de
nodos conectados, mayor es el riesgo que se puede presentar en la red.
En mayo de 1999, con millones de personas más en Internet, Shawn Fanning introdujo la aplicación para
compartir música y archivos llamada Napster. Napster fue el comienzo de las redes peer-to-peer, como
las conocemos hoy en día, donde "los usuarios que participan pueden establecer una red virtual,
totalmente independiente de la red física, sin tener que obedecer a cualquier autoridad administrativa o
restricciones".
Samuel Suárez Valle
2ºA CGM
IES Belén

Más contenido relacionado

PDF
Tecnologías de la información y la comunicación (tic)
PDF
Actividad 6
PDF
Documento sin título-1.pdf
PDF
Tecnologías de la información y la comunicación (tic)
PDF
Tecnologías de la información y la comunicación
PDF
Tecnologías de la información y la comunicación (tic)
Actividad 6
Documento sin título-1.pdf
Tecnologías de la información y la comunicación (tic)
Tecnologías de la información y la comunicación

Similar a TIC.pdf (20)

PDF
Documento sin titulo(1)
PDF
Documento sin titulo(1)
PDF
Actividad 7
PPTX
Las redes informátic as diapositivas
PDF
Actividad 6-2.pdf
PDF
Actividad 6
PDF
Aplicaciones TIC
PDF
Tarea 6 blogger
PDF
Actividad 6
PDF
Documento sin título-2.pdf
PDF
Las tic
ODT
Actividad 6 web
PDF
Tic app web
PDF
Documento sin titulo
PDF
Documento sin título.pdf
PPT
Las redes informaticas
PDF
Tecnologías de la información y la comunicación
PDF
Actividad 6
Documento sin titulo(1)
Documento sin titulo(1)
Actividad 7
Las redes informátic as diapositivas
Actividad 6-2.pdf
Actividad 6
Aplicaciones TIC
Tarea 6 blogger
Actividad 6
Documento sin título-2.pdf
Las tic
Actividad 6 web
Tic app web
Documento sin titulo
Documento sin título.pdf
Las redes informaticas
Tecnologías de la información y la comunicación
Actividad 6

Último (20)

DOCX
TRABAJO GRUPAL (5) (1).docxsjsjskskksksksks
PPTX
Diapositivas Borrador Rocha Jauregui David Paolo (3).pptx
PDF
CONTABILIDAD Y TRIBUTACION, EJERCICIO PRACTICO
PDF
Estrategia de Apoyo de Daylin Castaño (5).pdf
PPTX
ccna: redes de nat ipv4 stharlling cande
PDF
TRABAJO DE TECNOLOGIA.pdf...........................
PDF
MANUAL de recursos humanos para ODOO.pdf
PPTX
Presentacion de Alba Curso Auditores Internos ISO 19011
PPTX
Uso responsable de la tecnología - EEST N°1
PPTX
Tema 1 Taller de tecnologia y proceso tecnologico.pptx
DOCX
Guía 5. Test de orientación Vocacional 2.docx
PDF
0007_PPT_DefinicionesDeDataMining_201_v1-0.pdf
PDF
ADMINISTRACIÓN DE ARCHIVOS - TICS (SENA).pdf
PPTX
Sistema de Gestión Integral TCA Ingenieros.pptx
PPTX
El uso de las TIC en la vida cotidiana..
PDF
Estrategia de apoyo valentina lopez/ 10-3
PPTX
Presentación final ingenieria de metodos
DOCX
TRABAJO GRUPAL (5) (1).docxsjjsjsksksksksk
PDF
informe_fichas1y2_corregido.docx (2) (1).pdf
PDF
Guía_de_implementación_Marco_de_gobierno_y_gestión_de_TI_Universidades.pdf
TRABAJO GRUPAL (5) (1).docxsjsjskskksksksks
Diapositivas Borrador Rocha Jauregui David Paolo (3).pptx
CONTABILIDAD Y TRIBUTACION, EJERCICIO PRACTICO
Estrategia de Apoyo de Daylin Castaño (5).pdf
ccna: redes de nat ipv4 stharlling cande
TRABAJO DE TECNOLOGIA.pdf...........................
MANUAL de recursos humanos para ODOO.pdf
Presentacion de Alba Curso Auditores Internos ISO 19011
Uso responsable de la tecnología - EEST N°1
Tema 1 Taller de tecnologia y proceso tecnologico.pptx
Guía 5. Test de orientación Vocacional 2.docx
0007_PPT_DefinicionesDeDataMining_201_v1-0.pdf
ADMINISTRACIÓN DE ARCHIVOS - TICS (SENA).pdf
Sistema de Gestión Integral TCA Ingenieros.pptx
El uso de las TIC en la vida cotidiana..
Estrategia de apoyo valentina lopez/ 10-3
Presentación final ingenieria de metodos
TRABAJO GRUPAL (5) (1).docxsjjsjsksksksksk
informe_fichas1y2_corregido.docx (2) (1).pdf
Guía_de_implementación_Marco_de_gobierno_y_gestión_de_TI_Universidades.pdf

TIC.pdf

  • 1. TIC “ Las Tecnologías de la Información y la Comunicación (TIC) son todas aquellas que giran en torno a las tecnologías de almacenamiento, procesamiento, recuperación y comunicación de la información a través de diferentes dispositivos electrónicos e informáticos. A continuación se muestra un libro electrónico con información sobre ellas: “ Redes sociales Una red social (en plural, redes sociales, abreviado como RR. SS.) es una estructura social compuesta por un conjunto de actores y uno o más lazos o relaciones definidos entre ellos. Su estudio se remonta a los años 1930, con la creación de los sociogramas por parte de Jacob Levy Moreno y Helen Hall Jennings, que dieron origen a la sociometría, precursora del análisis de redes sociales y buena parte de la psicología social. Desde finales de los años 1940, se han estudiado además en profundidad mediante la teoría de grafos. El análisis de redes sociales es un estudio interdisciplinario en el que confluyen las ciencias sociales y del comportamiento, así como matemáticas y estadísticas. Actualmente, las redes sociales representan uno de los mayores paradigmas de la sociología contemporánea y del comportamiento organizacional. La creación de redes sociales en línea ha derivado en redes complejas, que son el objeto de estudio de la ciencia de redes. Debido a los grandes volúmenes de datos de este tipo de redes, para su estudio se suelen utilizar además herramientas y técnicas de las ciencias de la computación.
  • 2. Tecnologías inalámbricas La comunicación inalámbrica o sin cables es aquella en la que la comunicación (emisor/receptor) no se encuentra unida por un medio de propagación físico, sino que se utiliza la modulación de ondas electromagnéticas a través del espacio. En este sentido, los dispositivos físicos solo están presentes en los emisores y receptores de la señal, entre los cuales se encuentran antenas, computadoras portátiles, PDAs, teléfonos móviles, etcétera. La comunicación inalámbrica, que se realiza a través de ondas de radiofrecuencia, facilita la operación en lugares donde la computadora no se encuentra en una ubicación fija (almacenes, oficinas de varios pisos, etc.) actualmente se utiliza de una manera general y accesible para todo público. Cabe también mencionar que las redes cableadas presentan ventaja en cuanto a transmisión de datos sobre las inalámbricas. Mientras que las cableadas proporcionan velocidades de hasta 1 Gbit/s (Red Gigabit), las inalámbricas alcanzan solo hasta 108 Mbit/s. [cita requerida] Se puede realizar una “mezcla” entre inalámbricas y alámbricas, de manera que pueden funcionar de la siguiente manera: que el sistema cableado sea la parte principal y la inalámbrica sea la que le proporcione movilidad al equipo y al operador para desplazarse con facilidad en distintos campo (almacén u oficina). Un ejemplo de redes a larga distancia son las Redes públicas de Conmutación por Radio. Estas redes no tienen problemas en pérdida de señal, debido a que su arquitectura está diseñada para soportar paquetes de datos en vez de comunicaciones por voz.
  • 3. Actualmente, las transmisiones inalámbricas constituyen una eficaz herramienta que permite la transferencia de voz, datos y vídeo sin la necesidad de cableado. Esta transferencia de información es lograda a través de la emisión de ondas de radio teniendo dos ventajas: movilidad y flexibilidad del sistema en general. Hardware de Conexión Un dispositivo de interconexión de redes es un término ampliamente utilizado para cualquier hardware que conecte diferentes recursos de red. Los dispositivos clave que comprenden una red son conmutadores, enrutadores, brigde (puentes), repetidores y puertas de enlace. Todos los dispositivos tienen características de alcance por separado, según los requisitos y escenarios de la red. Los siguientes son escenarios de interconexión: Una sola LAN Dos LAN conectadas entre sí (LAN-LAN)
  • 4. Una LAN conectada a una WAN (LAN-WAN) Dos LAN conectadas a través de una WAN (LAN-WAN-LAN) Para entender los diversos dispositivos de interconexión de redes, creamos el siguiente glosario. -Repetidores Se utilizan para extender la longitud de la red. Fueron creados para regenerar y amplificar señales débiles, extendiendo así la longitud de la red. La función básica de un repetidor es remodelar y reamplificar la señal de datos a su nivel original. Las características importantes de estos equipos son las siguientes: Conectar diferentes segmentos de red de una LAN Reenviar cada paquete que recibe Un repetidor es un regenerador, no un amplificador Los repetidores operan en la capa física del modelo OSI -Hubs Un Hub es básicamente un repetidor multipuerto, actúa como concentrador y conecta múltiples cables provenientes de diferentes conexiones. Los concentradores no pueden filtrar datos, por lo que los paquetes de datos se envían a todos los dispositivos conectados, el dominio de colisión de todos los hosts conectados a través de Hub sigue siendo uno. Los Hubs no tienen inteligencia para encontrar la mejor ruta para los paquetes, las consecuencias: ineficiencia y desperdicio.
  • 5. Antivirus Los antivirus son programas cuyo objetivo es detectar y eliminar virus informáticos.1 Con el paso del tiempo, los antivirus han evolucionado hacia programas más avanzados que además de buscar y detectar virus informáticos consiguen bloquearlos, desinfectar archivos y prevenir una infección de estos. Actualmente son capaces de reconocer otros tipos de malware, como spyware, gusanos, troyanos, rootkits y pseudovirus. Los antivirus utilizan distintos tipos de mecanismos para detectar virus. Como demostró Frederick Cohen ningún método es totalmente efectivo para identificar un virus.3Los tipos de mecanismos más usados por los antivirus para detectar virus son: Basados en Firma de virus: El antivirus dispone de una base de datos en las que almacena firmas de virus. En el pasado estas firmas eran hashes con los que se intentaba ajustar todos los ficheros del equipo analizado. Esta medida es fácil de eludir cambiando cualquier instrucción del código y el hash resultante no coincidiría con ninguna firma de la base de datos. No tardó en sofisticarse esa técnica y se empezó a intentar buscar una secuencia de bytes concreta en cada muestra de malware que lo identificara, así de esta manera, tendrías que saber que parte del código es con la que han identificado tu binario para modificarla y no ser detectable. Es habitual el uso de reglas Yara para declarar patrones específicos para detectar un malware concreto.4 Para luchar contra estas firmas en los malware se emplearon codificadores que modificaban todo el código del binario. Ejemplos de codificadores son el
  • 6. básico XOR o el “Shikata ga nai” de Metasploit que añadía una capa de polimorfismo, generando una cadena de bits diferente cada vez que se produce la codificación. También surgieron los packers que encapsulaban el código dentro del binario y lo cifraban, de tal manera que las firmas no eran capaces de ser útiles. La debilidad de estos sistemas es que en el código hay que añadir las instrucciones necesarias para el desempaquetado del código y eso puede generar firmas que identifiquen un binario como potencialmente malicioso. Basados en Detección heurística: Consiste en el escaneo de los archivos buscando patrones de código que se asemejan a los que se usan en los virus. Ya no es necesaria una coincidencia exacta con una firma de virus almacenada si no que se buscan similitudes más generales aplicando algoritmos. Basados en Detección por comportamiento: consiste en escanear el sistema tras detectar un fallo o mal funcionamiento. Por lo general, mediante este mecanismo se pueden detectar software ya identificado o no, pero es una medida que se usa tras la infección. Basados en la Detección por caja de arena (o sandbox): consiste en ejecutar el software en máquinas virtuales y determinar si el software ejecuta instrucciones maliciosas o no. A pesar de que este mecanismo es seguro, toma bastante tiempo ejecutar las pruebas antes de ejecutar el software en la máquina real. Basados en la Detección por inteligencia artificial: consiste en el uso de tecnologías de inteligencia artificial para detectar comportamiento malicioso. Ejemplos de antivirus que san estas tecnologías son MIT AI2 (desarrollado por el MIT y IBM Watson for Cyber Security (desarrollado por IBM). Basado en Indicadores de compromiso (IDC): Una vez los IDC han sido identificados pueden ser utilizados para la detección temprana de intentos de ataque que utilizan sistemas antivirus. Los antivirus tradicionalmente se ejecutan en el sistema analizado y utiliza la red para actualizar su software y datos. Los antivirus en la nube lo que hacen es delegar la mayor parte del procesamiento del antivirus en la nube. Hay que establecer decisión de que procesamientos son lo suficientemente importantes como para incluirlas en el cliente local sin saturar y cuáles deberían permanecer en un servidor en la nube. Las principales ventajas que se tienen son: acceso más rápido a actualizaciones de software y datos (no depender de actualización manual o de las actualizaciones automáticas programadas), el cliente del antivirus en el equipo a analizar es mucho más pequeño y requiere poco procesamiento dejando recursos para nuestro uso, facilidad de uso e instalación. Las principales desventajas son: dependencia con respecto a la conexión, posibles problemas de privacidad al enviar datos a la nube y posible foco de infección secundaria al subir datos a la nube.
  • 7. Navegador web Un navegador web (en inglés, web browser) es un software, aplicación o programa que permite el acceso a la Web, interpretando la información de distintos tipos de archivos y sitios web para que estos puedan ser vistos. La funcionalidad básica de un navegador web es permitir la visualización de documentos de texto, posiblemente con recursos multimedia incrustados. Además, permite visitar páginas web y hacer actividades en ella, es decir, enlazar un sitio con otro, imprimir, enviar y recibir correos, entre otras funcionalidades más. Los documentos que se muestran en un navegador pueden estar ubicados en la computadora donde está el usuario y también pueden estar en cualquier otro dispositivo conectado en la computadora del usuario o a través de Internet, y que tenga los recursos necesarios para la transmisión de los documentos (un software servidor web). Tales documentos, comúnmente denominados páginas web, poseen hiperenlaces o hipervínculos que enlazan una porción de texto o una imagen a otro documento, normalmente relacionado con el texto o la imagen. El seguimiento de enlaces de una página a otra, ubicada en cualquier computadora conectada a Internet, se llama navegación, de donde se origina el nombre navegador (aplicado tanto para el programa como para la persona que lo utiliza, a la cual también se le llama cibernauta). Por otro lado, ojeador es una traducción literal del original en inglés, browser, aunque su uso es minoritario. Los navegadores web se han convertido en las herramientas más populares de acceso a Internet. Por esa razón explotar sus vulnerabilidades se han convertido en un objetivo muy interesante para atacar
  • 8. los sistemas informáticos en los que se instalan. Es tal el interés, que se han desarrollado herramientas automáticas para explotar vulnerabilidades en los navegadores. El primer navegador fue desarrollado por Tim Berners-Lee, en la CERN, en 1990; el navegador web llamado WorldWideWeb era bastante sofisticado y gráfico, pero solo funcionaba en estaciones NexT. El navegador Mosaic, que funcionaba inicialmente en entornos Unix sobre XFree86 (X11), fue el primero que se extendió debido a que pronto el National Center for Supercomputing Applications (NCSA) preparó versiones para Windows y Macintosh. Sin embargo, Netscape Navigator al poco tiempo entró en el mercado y rápidamente superó en capacidades y velocidad al Mosaic. Este navegador tuvo la ventaja de funcionar en casi todos los sistemas Unix, y también en entornos Windows. Internet Explorer (anteriormente Spyglass Mosaic) fue la apuesta tardía de Microsoft para entrar en el mercado y consiguió desbancar al Netscape Navigator entre los usuarios de Windows, debido a la integración del navegador con el sistema operativo, llegando a poseer cerca del 95% de la cuota de mercado. Netscape Communications Corporation liberó el código fuente de su navegador, naciendo así el proyecto Mozilla. Comercio electrónico El comercio electrónico —también conocido como e-commerce (electronic commerce en inglés), comercio por Internet o comercio en línea— consiste en la compra y venta de productos o de servicios a través de internet, tales como redes sociales y otras páginas web. También puede ser definido como una actividad económica que permite el comercio de diferentes productos y servicios a partir de medios digitales, como páginas web, aplicaciones móviles y redes sociales. Por medio de la red virtual, los
  • 9. clientes pueden acceder a diversos catálogos de marcas, servicios y productos, en todo momento y en cualquier lugar. Originalmente, el término se aplicaba a la realización de transacciones mediante medios electrónicos tales como el intercambio electrónico de datos; sin embargo, con el advenimiento del Internet y del World Wide Web, a mediados de la década de 1990 comenzó a referirse principalmente a la venta de bienes y servicios a través de Internet, usando como forma de pago medios electrónicos tales como las tarjetas de crédito y nuevas metodologías, como el pago móvil o las plataformas de pago. Vender y comprar ya es una tarea bastante sencilla propiciada, desde luego, por la tecnología, como los dispositivos móviles con acceso a la red. La cantidad de comercio llevada a cabo electrónicamente ha crecido de manera extraordinaria debido a Internet. Una gran variedad de comercio se realiza de esta manera, estimulando la creación y utilización de innovaciones como la transferencia de fondos electrónica, la administración de cadenas de suministro, el marketing en Internet, el procesamiento de transacciones en línea (OLTP), el intercambio electrónico de datos (EDI), los sistemas de administración del inventario y los sistemas automatizados de recolección de datos. La mayor parte del comercio electrónico consiste en la compra y venta de productos o servicios entre personas y empresas, sin embargo un porcentaje considerable del comercio electrónico consiste en la adquisición de artículos virtuales (software y derivados en su mayoría), tales como el acceso a contenido "premium" de un sitio web. En 2017, dos mil millones de personas realizaron una transacción de comercio electrónico móvil,3dando lugar a una tasa de crecimiento interanual de un 23,4% según la Comisión Nacional de los Mercados y la Competencia (CNMC). En el 2020, 70% de los mercadólogos ven más efectivas las estrategias SEO que las campañas de marketing pagadas., 53% de los consumidores buscan un producto en internet, independientemente si lo van o no a comprar y “Donde comprar” + “mi área ó cerca de mí” ha aumentado su búsqueda 200% en los últimos 2 años. En los contratos de comercio electrónico el proveedor tiene un fuerte deber de información, que incluye todos los datos necesarios para usar correctamente el medio electrónico que se usa para la compra, los datos necesarios para comprender los riesgos de la contratación por ese medio electrónico y quién asume dichos riesgos, así como la información sobre el derecho a dejar sin efecto el contrato de compra. Durante 2020, el comercio electrónico facturó un total de 4.2 billones de dólares en todo el mundo. Mientras que América Latina mostró un crecimiento importante de 36.7%, incluso mayor que el de la región Asia-Pacífico (26.4%). En 2021 esta tendencia de crecimiento no fue diferente, se estima que el comercio electrónico global creció un 16.8% en ingresos en comparación con 2020, lo que representa aproximadamente 4.9 billones de dólares en el año.
  • 10. Servicios Peer to Peer (P2P) Una red peer-to-peer, red de pares, red entre iguales o red entre pares (P2P, por sus siglas en inglés) es una red de ordenadores en la que todos o algunos aspectos funcionan sin clientes ni servidores fijos, sino una serie de nodos que se comportan como iguales entre sí. Es más, actúan simultáneamente como clientes y servidores respecto a los demás nodos de la red. Las redes P2P permiten el intercambio directo de información, en cualquier formato, entre los ordenadores interconectados. Cuando un cliente entra a este sistema hace una conexión directa a uno de estos últimos, en donde recolecta y almacena toda la información y contenido disponible para compartir. Se trata entonces de un programa cuya función es la de conectar a los usuarios a través de una red sin servidores que facilita la descarga de música, películas, libros, fotos y software entre todos los otros usuarios, de manera gratuita. Estos archivos son compartidos “de computador a computador” por el solo hecho de tener acceso al sistema. Normalmente este tipo de redes se implementan como redes superpuestas construidas en la capa de aplicación de redes públicas como Internet. El hecho de que sirvan para compartir e intercambiar información de forma directa entre dos o más usuarios ha propiciado que parte de los usuarios lo utilicen para intercambiar archivos cuyo contenido
  • 11. está sujeto a las leyes de derechos de autor, lo que ha generado una gran polémica entre defensores y detractores de estos sistemas. Las redes peer-to-peer aprovechan, administran y optimizan el uso del ancho de banda de los demás usuarios de la red por medio de la conectividad entre los mismos, y obtienen así más rendimiento en las conexiones y transferencias que con algunos métodos centralizados convencionales, donde una cantidad relativamente pequeña de servidores provee el total del ancho de banda y recursos compartidos para un servicio o aplicación. Dichas redes son útiles para diversos propósitos. A menudo se usan para compartir ficheros (archivos) de cualquier tipo (por ejemplo, audio, vídeo o software). Este tipo de red también suele usarse en telefonía VoIP para hacer más eficiente la transmisión de datos en tiempo real. La eficacia de los nodos en el enlace y transmisión de datos puede variar según su configuración local (cortafuegos, NAT, ruteadores, etc.), velocidad de proceso, disponibilidad de ancho de banda de su conexión a la red y capacidad de almacenamiento en disco, pero mientras el número de nodos crezca más difícil será la administración de recursos de la red, y la seguridad puede ser afectada, ya que si un nodo es infectado es posible que pueda infectar a cada nodo de la red, dado que a mayor número de nodos conectados, mayor es el riesgo que se puede presentar en la red. En mayo de 1999, con millones de personas más en Internet, Shawn Fanning introdujo la aplicación para compartir música y archivos llamada Napster. Napster fue el comienzo de las redes peer-to-peer, como las conocemos hoy en día, donde "los usuarios que participan pueden establecer una red virtual, totalmente independiente de la red física, sin tener que obedecer a cualquier autoridad administrativa o restricciones". Samuel Suárez Valle