SlideShare una empresa de Scribd logo
braudicomputadora.webs.com
braudicomputadora.webs.com
308-391 minutos
braudicomputadora.webs.com
creador de la web por: Braudi Arismendy Hernandez
Carrasco
que es braudicomputadora.webs.com
es una pagina web que habla sobre computadora y
habla sobre la cosa en informatica y ciberneticamente
esta pagina es desarrollado por
braudicomputadora.webs.com
Que es Adobe Flash Player
Flash Player es una aplicación informática englobada en
la categoría de reproductor multimedia. Fue creado
inicialmente por Macromedia y actualmente distribuido
por Adobe Systems.
Permite reproducir archivos en formato SWF, creados
con la herramienta Animate CC2 o Flex de la propia
Adobe, o con otras herramientas de terceros. Estos
archivos se reproducen en un entorno determinado. En
un sistema operativo tiene el formato de aplicación del
sistema, mientras que si el entorno es un navegador, su
formato es el de un complemento u objeto ActiveX.
Animate CC (antiguamente tenían el mismo nombre,
Flash) se refiere al programa de creación de
animaciones. Estrictamente hablando, Animate es el
entorno de creación, y Flash Player es el reproductor o
máquina virtual. Sin embargo, en lenguaje coloquial se
usaba el término Flash para referirse al entorno, al
reproductor e, incluso, a los archivos generados.
Flash Player tiene soporte para un lenguaje de
programación interpretado conocido como ActionScript
(AS) basado en el estándar ECMAScript. Desde su
origen AS ha pasado de ser un lenguaje muy básico a un
lenguaje avanzado con soporte de programación
orientada a objetos, comparable en funciones y uso al
lenguaje JavaScript (también basado en ECMAScript).3
Originalmente creado para mostrar animaciones
vectoriales en 2 dimensiones, ha pasado a convertirse
en la opción preferida a la hora de crear aplicaciones
Web que incluyen flujo de audio y video e interactividad.
La utilización de gráficos vectoriales le permite
disminuir el ancho de banda necesario para la
transmisión y, por ende, el tiempo de carga de la
aplicación.4
Flash Player está disponible para las versiones más
recientes de los navegadores más populares (Internet
Explorer, Safari, Opera, etcétera). El navegador Chrome
de Google no lo necesita porque distribuye su propia
versión con el programa.
Historial de versiones[editar]
A continuación se mencionarán las principales versiones
de Flash Player junto con su fecha de lanzamiento y sus
características principales.
Flash Player 2[editar]
Su fecha de lanzamiento fue en 1997.
Principalmente vectores en movimiento y algunos
gráficos rasterizados.
Sonido estéreo de forma limitada, integración de
mapas de bits mejorados, botones, la Biblioteca y la
capacidad de interpolar cambios de colores.
Flash Player 3[editar]
Su fecha de lanzamiento fue en 1998.
Añadida la transparencia alfa y la licencia de
compresión MP3 .
Mejoras a la animación, la reproducción y
publicación, así como la introducción de comandos
sencillos para obtener interactividad.
Flash Player 4[editar]
Fecha de aparición: mayo de 1999.
Dio paso a la introducción de streaming MP3 y a la
interpolación de movimiento. Inicialmente el plug-in de
Flash Player no fue incluido con los navegadores web
más populares y los usuarios tenían que visitar el sitio
web de Macromedia para descargarlo. A partir del año
2000, sin embargo, Flash Player empezó a ser
distribuido en los navegadores AOL, Netscape e Internet
Explorer. Dos años más tarde venía incluido como
complemento en todas las versiones de Windows XP. La
instalación del reproductor de Flash alcanzó el 92 por
ciento de los usuarios de Internet.5
Flash Player 5[editar]
Fecha de aparición: agosto de 2000.
Un gran paso adelante en sus características, con la
evolución de las capacidades de scripting de Flash, se
presenta como ActionScript. Agregó la posibilidad de
personalizar la interfaz del entorno de edición. Generator
de Macromedia fue la primera iniciativa de Macromedia
para el diseño independiente de contenido en archivos
Flash. Generator 2.0 fue lanzado en abril de 2001 y
muestra el contenido de Flash en tiempo real de
generación del servidor en su versión Enterprise Edition.
Generator se suspendió en 2002 a favor de las nuevas
tecnologías como Flash Remoting, que permite la
transmisión ininterrumpida de datos entre el servidor y
el cliente y el servidor ColdFusion. En octubre de 2000, el
gurú de la usabilidad Jakob Nielsen ha escrito un
artículo polémico sobre la usabilidad de los contenidos
Flash titulado "Flash 99% Bad". (Macromedia contrató a
Nielsen para ayudarles a mejorar la usabilidad de Flash.)
Flash Player 6[editar]
Fecha de aparición de la versión 6.0.21.0: marzo de
2001.
Apoyo al consumo de Flash Remoting (AMF) y
servicios Web (SOAP).
Apoyo ondemand / audio en vivo y video streaming
(RTMP).
Apoyo a los lectores de pantalla a través de
Microsoft Active Accessibility.
Añadido Sorenson chispa códec de vídeo de Flash
Video.
Soporte para video, componentes de aplicación,
librerías compartidas, y la accesibilidad.g
Macromedia Flash Communication Server MX,
también lanzado en 2002, permitió video para ser
escuchados en Flash Player 6 (de lo contrario el
video puede ser embebido en la película de Flash).
Flash Player 7[editar]
Apoyo ActionScript 2.0, Lenguaje de programación
orientado a objetos para los desarrolladores.
Capacidad para crear tablas, gráficos y efectos
adicionales de texto con el nuevo soporte para
extensiones (se vende por separado), la importación
de alta fidelidad de los archivos PDF y Adobe
Illustrator 10, móvil y el desarrollo de dispositivos y
un entorno de desarrollo basado en formularios.
ActionScript 2.0 también se introdujo, dando a los
desarrolladores un enfoque formal orientado a
objetos en ActionScript. Componentes V2 sustituirá
los componentes de Flash MX, siendo re-escrito
desde cero para aprovechar las características de
ActionScript 2.0 y principios orientados a objetos.
En 2004, la "plataforma Flash" fue introducida.
Ampliando el Flash de la herramienta de edición de
Flash. Flex 1.0 y 1.0 Brisa fueron liberados, los cuales
utilizan el Flash Player como un método de entrega,
pero se basó en otras herramientas que el programa
de edición de Flash para crear aplicaciones Flash y
presentaciones. Flash Lite 1.1 también fue lanzado,
permitiendo a los teléfonos móviles reproducir
contenido Flash.
Flash Player 8[editar]
Fecha de aparición de la versión 8.0.22.0: agosto de
2005.
Soporte para la carga en tiempo de ejecución de las
imágenes GIF y PNG.
Nuevo codec de vídeo (On2 VP6).
Mejora del rendimiento en tiempo de ejecución y de
mapa de bits en tiempo de ejecución de
almacenamiento en caché.
Filtros en vivo y blendmodes.
Carga de archivos y capacidad de descarga
Nuevo motor de procesamiento de texto.
Subsistema ExternalAPI introducido para reemplazar
fscommand ().
El 3 de diciembre de 2005, Adobe Systems adquirió los
productos de Macromedia (incluyendo Flash) .
Flash Player 9[editar]
Fecha de aparición de la versión 9.0.15.0: junio de
2006.
Nuevo motor de scripting ECMAScript, ActionScript
Virtual Machine AVM2. AVM1 se conserva por
compatibilidad.
ActionScript 3 a través de AVM2.
E4X, que es un nuevo enfoque de análisis XML.
Soporte para sockets binarios.
Soporte para expresiones regulares y espacios de
nombres.
ECMAScript 4 máquina virtual donada a la Fundación
Mozilla y el llamado Tamarin.
Flash Player 9 Update 1 Linux[editar]
Fecha de aparición de la versión 9.0.28.0: noviembre
de 2006.
Soporte para el modo de pantalla completa.
Flash Player 9 Update 2[editar]
Fecha de aparición de la versión 9.0.47.0 9.0.48.0:
julio de 2007.
Actualización de seguridad
Flash Player 9 Update 38[editar]
Fecha de aparición de la versión 9.0.115.0: diciembre
de 2007.
H.264
El perfil principal del AAC (HE-AAC, AAC y AAC LC-).
Nuevo formato de archivo Flash Video F4V basado
en la ISO Base Media File Format (MPEG-4 Parte 12).
Soporte para formatos de contenedor basado en los
medios de comunicación de archivos ISO [31].
Flash Player 10[editar]
Versión 10.0.12.36: octubre de 2009.
Nuevas características
Transformaciones de objetos 3D.
Filtros personalizados a través de Pixel Bender.
Soporte avanzado para texto.
Speex códec de audio.
Protocolo de flujo en los medios de comunicación en
tiempo real (RTMFP).
Generación de sonido dinámico.
Tipo de datos vectoriales.
Características mejoradas
Ampliar el soporte al mapa de bits.
Gráficos API de dibujo.
Menú contextual.
Aceleración de hardware.
Motor anti-aliasing (Saffron 3,1).
Lectura/escritura clipboard.
Wmode.
Adobe Flash Player 10.1[editar]
Versión 10.1.53.64: junio de 2010.
Reutilización de mapas de bits copiados para una
mejor gestión de memoria.
Implementado un recolector de basura.
Decodificación por hardware de video codificado con
H.264.
Flujo dinámico por HTTP.
Soporte para modos de privacidad.
API para soporte multitáctil.
Para OS X:
Uso de la interfaz Cocoa para Mac
Uso del contexto OpenGl de doble búfer para
pantalla completa.
Origen de Flash[editar]
Hasta la llegada de HTML5, mostrar el vídeo en una
página web requería que el navegador disponga del
plugin, que son los únicos ejecutados por terceros
proveedores. Prácticamente todos los plugins existentes
para vídeo son libres y multiplataforma, se incluye la
oferta de Adobe de Flash Video, el cual fue introducido
por primera vez con la versión de Flash 6. Flash Video ha
sido una opción popular para los sitios web debido a la
gran cantidad de usuarios que tienen instalada esta
tecnología y también a la capacidad de programación de
Flash.
En 2010, Apple criticó públicamente la aplicación de
Adobe Flash de reproducción de vídeo por no tomar
ventaja de la aceleración de hardware, además criticó
toda la tecnología Flash en general, argumentando que
no es un estándar abierto, y que afectaba el rendimiento
de las baterías de sus equipos, razones por las que no lo
incluirla en sus dispositivos móviles. Poco después de
las críticas de Apple, Adobe lanzó una versión beta de
Flash 10.1, que hace uso de la aceleración de hardware,
incluso en un Mac.
Flash Audio[editar]
El audio en Flash es más comúnmente codificado en
MP3 o AAC (Advanced Audio Coding).
Sin embargo, también es compatible con ADPCM,
códecs Nellymoser (Nellymoser Asao Codec) y Speex
audio.
Flash permite frecuencias de muestreo de 11, 22 y 44,1
kHz. No es compatible con frecuencias de muestreo de
audio de 48 kHz, que es el estándar de televisión y DVD.
El 20 de agosto de 2007, Adobe anunció en su blog que
con la actualización 3 de Flash Player 9, Flash Video
también soportaría algunas partes de la especificación
MPEG-4 de la normativa internacional. En concreto,
Flash Player tendrá soporte para video comprimido en H
0.264 (MPEG-4 Parte 10), para audio comprimido con
AAC (MPEG-4 Parte 3), el F4V, MP4 (MPEG-4 Parte 14),
M4V, M4A, 3GP y formatos de contenido multimedia
MOV, especificación de textos programados 3GPP
(MPEG-4 Parte 17), que es un formato normalizado de
subtítulos y soporta análisis parcial para «ilst atom, el
cual es el ID3 equivalente de iTunes utilizado para
almacenar los metadatos. MPEG-4 Parte 2 y H.263 no
soportan el formato de archivo F4V. Adobe también
anunció que se irá alejando del formato FLV para
acercarse al formato estándar ISO para multimedia
(MPEG-4 parte 12), debido a los límites funcionales de
FLV y el streaming de H.264. La versión final del
reproductor de Flash soportó algunas partes de los
estándares MPEG-4 que se encontró disponible en el
otoño de 2007.
Seguridad[editar]
Como cualquier aplicación que trata archivos recibidos
de Internet es susceptible a los ataques. Los archivos
especialmente elaborados podrían hacer que la
aplicación funcionara mal, permitiendo la ejecución
potencial de código maligno. No se tiene conocimiento
de problemas reales y concretos, pero el plug-in del
Player ha tenido defectos de seguridad que
teóricamente podrían haber puesto en peligro un
ordenador a los ataques remotos. No ha habido
(publicados) incidentes de seguridad desde entonces.
Flash Player es considerado seguro de usar,
especialmente cuando se compara con los navegadores
modernos y aplicaciones de uso.
Los archivos de aplicaciones Flash pueden ser
decompilados muy fácilmente en su código fuente y sus
valores. Hay disponibles varios programas que extraen
gráficos, sonido y código de programa a partir de
archivos SWF. Por ejemplo, un programa de código
abierto denominado Flasm permite a los usuarios
extraer ActionScript a partir de un archivo SWF como
máquina virtual de lenguaje intermedio ("bytecode"),
editarlo, y luego volverlo a insertar en el archivo. La
ofuscación de los archivos SWF hace prácticamente
imposible la extracción en la mayoría de los casos.
Críticas a Flash[editar]
Steve Jobs, co-fundador de Apple, se negó a incorporar
Flash en los productos iPhone, iPod y iPad. Las razones
que aducía eran las siguientes:6
Es un software 100% propietario, es decir, cerrado a
los aportes de terceros.
1.
Hay un formato de video más moderno, H.264, que
está disponible en los citados dispositivos de Apple.
En cuanto a animación e interactividad HTML5 y
CSS3 ofrecen prestaciones similares sin necesidad
de plug ins propietarios.
2.
Tiene un antiguo historial de problemas de
seguridad no resueltos.
3.
Requiere decodificación por hardware, lo que puede4.
aumentar hasta en un 100% el uso de la batería de
dispositivos móviles.
Recientes bloqueos[editar]Mozilla Firefox[editar]
En julio de 2015, Mozilla Firefox se sumó a las críticas
hechas en torno a las vulnerabilidades explotadas por
los hackers que les permitían acceder de forma remota
a sus computadoras.
El presidente de Mozilla, Mark Schmidt, por medio de su
cuenta de Twitter informó que todas las versiones de
Flash serían desactivadas del navegador[cita requerida];
la mayoría de usuarios no notan el cambio, porque cada
vez menos sitios web utilizan Adobe Flash
Player.[cita requerida]
Google Chrome[editar]
Google Chrome terminó el soporte por posibles ataques
al grupo Hacking Team y ataques del día cero.7
Que es Joint Photographic Experts Group
conocido como JPEG
Joint Photographic Experts Group (JPEG), traducido al
español como Grupo Conjunto de Expertos en
Fotografía, es el nombre de un comité de expertos que
creó un estándar de compresión y codificación de
archivos e imágenes fijas. Este comité fue integrado
desde sus inicios por la fusión de varias agrupaciones
en un intento de compartir y desarrollar su experiencia
en la digitalización de imágenes. La ISO, tres años antes
(abril de 1983), había iniciado sus investigaciones en el
área.
Además de ser un método de compresión, es a menudo
considerado como un formato de archivo. JPEG/Exif es
el formato de imagen más común, utilizado por las
cámaras fotográficas digitales y otros dispositivos de
captura de imagen, junto con JPG/JFIF, que también es
otro formato para el almacenamiento y la transmisión de
imágenes fotográficas en la World Wide Web. Estas
variaciones de formatos a menudo no se distinguen, y
se llaman “JPEG”. Los archivos de este tipo se suelen
nombrar con la extensión .jpg.
Compresión del JPEG[editar]
Comparativa de calidad entre la imagen original,
comprimida en JPG (con pérdida) y comprimida en
WebP (con pérdida).
El formato JPEG utiliza habitualmente un algoritmo de
compresión con pérdida para reducir el tamaño de los
archivos de imágenes. Esto significa que al
descomprimir o visualizar la imagen no se obtiene
exactamente la misma imagen de la que se partía antes
de la compresión. Existen también tres variantes del
estándar JPEG que comprimen la imagen sin pérdida de
datos: JPEG 2000, JPEG-LS y Lossless JPEG.
El algoritmo de compresión JPEG se basa en dos
fenómenos visuales del ojo humano: uno es el hecho de
que es mucho más sensible al cambio en la luminancia
que en la crominancia; es decir, capta más claramente
los cambios de brillo que de color. El otro es que nota
con más facilidad pequeños cambios de brillo en zonas
homogéneas que en zonas donde la variación es grande,
por ejemplo en los bordes de los cuerpos de los objetos.
Una de las características del JPEG es la flexibilidad a la
hora de ajustar el grado de compresión. Un grado de
compresión muy alto generará un archivo de pequeño
tamaño, a costa de una pérdida significativa de calidad.
Con una tasa de compresión baja se obtiene una calidad
de imagen muy parecida a la del original, pero con un
tamaño de archivo mayor.
La pérdida de calidad cuando se realizan sucesivas
compresiones es acumulativa. Esto significa que si se
comprime una imagen y se descomprime, se perderá
calidad de imagen, pero si se vuelve a comprimir una
imagen ya comprimida se obtendrá una pérdida todavía
mayor. Cada sucesiva compresión causará pérdidas
adicionales de calidad. La compresión con pérdida no es
conveniente en imágenes o gráficos que tengan textos,
líneas o bordes muy definidos, pero sí para archivos que
contengan grandes áreas de colores sólidos.
Codificación[editar]
Muchas de las opciones del estándar JPEG se usan
poco. Esto es una descripción breve de uno de los
muchos métodos usados comúnmente para comprimir
imágenes cuando se aplican a una imagen de entrada
con 24 bits por pixel (ocho por cada rojo, verde, y azul, o
también dicho "8 bits por canal"). Esta opción particular
es un método de compresión con pérdida.
Transformación del espacio de color[editar]
Comienza convirtiendo la imagen desde su modelo de
color RGB a otro llamado YUV o YCbCr. Este espacio de
color es similar al que usan los sistemas de color para
televisión PAL y NTSC, pero es mucho más parecido al
sistema de televisión MAC (Componentes Analógicas
Multiplexadas).
Este espacio de color (YUV) tiene tres componentes:
La componente Y, o luminancia (información de
brillo); es decir, la imagen en escala de grises.
Las componentes U o Cb y V o Cr, respectivamente
diferencia del azul (relativiza la imagen entre azul y
rojo) y diferencia del rojo (relativiza la imagen entre
verde y rojo); ambas señales son conocidas como
crominancia (información de color).
Las ecuaciones que realizan este cambio de base de
RGB a YUV son las siguientes:
Y = 0,257 * R + 0,504 * G + 0,098 * B + 16 Cb = U = -0,148
* R - 0,291 * G + 0,439 * B + 128 Cr = V = 0,439 * R - 0,368
* G - 0,071 * B + 128
Las ecuaciones para el cambio inverso se pueden
obtener despejando de las anteriores y se obtienen las
siguientes:
B = 1,164 * (Y - 16) + 2,018 * (U - 128) G = 1,164 * (Y - 16)
- 0,813 * (V - 128) - 0,391 * (U - 128) R = 1,164 * (Y - 16) +
1,596 * (V - 128)
NOTA: Estas ecuaciones están en continua
investigación, por lo que se pueden encontrar en libros y
en la red otras ecuaciones distintas pero con
coeficientes muy parecidos.
Si se analiza el primer trío de ecuaciones veremos que
las tres componentes toman como valor mínimo el 16.
El canal de luminancia (canal Y) tiene como valor
máximo el 235, mientras que los canales de crominancia
el 240. Todos estos valores caben en un byte haciendo
redondeo al entero más próximo. Durante esta fase no
hay pérdida significativa de información, aunque el
redondeo introduce un pequeño margen de error
imperceptible para el ojo humano.
Submuestreo[editar]
Ligera explicación visual sobre el submuestreo. La
imagen de arriba a la izquierda es la original; las otras
sufren unos submuestreos de color agresivos que dan
idea de los efectos de esta técnica. Ampliar para mejor
visualización.
El algoritmo JPEG transforma la imagen en cuadrados
de 8×8 y luego almacena cada uno de estos como una
combinación lineal o suma de los 64 recuadros que
forman esta imagen; esto permite eliminar detalles de
forma selectiva. Por ejemplo, si una casilla tiene un valor
muy próximo a 0, puede ser eliminada sin que afecte
mucho a la calidad.
Una opción que se puede aplicar al guardar la imagen es
reducir la información del color respecto a la de brillo
(debido al fenómeno visual en el ojo humano comentado
anteriormente). Hay varios métodos: si este paso no se
aplica, la imagen sigue en su espacio de color YUV (este
submuestreo se entiende como 4:4:4), con lo que la
imagen no sufre pérdidas. Puede reducirse la
información cromática a la mitad, 4:2:2(reducir en un
factor de 2 en dirección horizontal), con lo que el color
tiene la mitad de resolución (en horizontal) y el brillo
sigue intacto. Otro método, muy usado, es reducir el
color a la cuarta parte, 4:2:0, en el que el color se reduce
en un factor de 2 en ambas direcciones, horizontal y
vertical. Si la imagen de partida estaba en escala de
grises (blanco y negro), puede eliminarse por completo
la información de color, quedando como 4:0:0.
Algunos programas que permiten el guardado de
imágenes en JPEG (como el que usa GIMP) se refieren a
estos métodos con 1×1,1×1,1×1para YUV 4:4:4 (no
perder color), 2×1,1×2,1×1 para YUV 4:2:2 y 2×2,1×1,1×1
para el último método, YUV 4:2:0.
Las técnicas algorítmicas usadas para este paso (para
su reconstrucción exactamente) suelen ser
interpolación bilineal, vecino más próximo, convolución
cúbica, Bezier, b-spline y Catmun-Roll.rh
Transformación discreta de coseno (DCT)[editar]
Cada componente de la imagen se divide en pequeños
bloques de 8×8 píxeles, que se procesan de forma casi
independiente, lo que disminuye notablemente el tiempo
de cálculo. De esto resulta la típica formación
cuadriculada, que se vuelve visible en las imágenes
guardadas con alta compresión. Si la imagen sufrió un
submuestreo del color, los colores quedarían en la
imagen final en bloques de 8×16 y 16×16 píxeles, según
fuese 4:2:2 o 4:2:0.
Después, cada pequeño bloque se convierte al dominio
de la frecuencia a través de la transformación discreta
de coseno, abreviadamente llamada DCT.
Un ejemplo de uno de esos pequeños bloques de 8×8
inicial es este:
{displaystyle
{begin{bmatrix}52&55&61&66&70&61&64&73
63&59&55&90&109&85&69&72
62&59&68&113&144&104&66&73
63&58&71&122&154&106&70&69
67&61&68&104&126&88&68&70
79&65&60&70&77&68&58&75
85&71&64&59&55&61&65&83
87&79&69&68&65&76&78&94end{bmatrix}}}
El siguiente proceso es restarles 128 para que queden
números entorno al 0, entre -128 y 127.
{displaystyle {begin{bmatrix}-76&-73&-67&-62&-
58&-67&-64&-55-65&-69&-73&-38&-19&-43&-59&-
56-66&-69&-60&-15&16&-24&-62&-55-65&-70&-57&-
6&26&-22&-58&-59-61&-67&-60&-24&-2&-40&-60&-
58-49&-63&-68&-58&-51&-60&-70&-53-43&-57&-64&-
69&-73&-67&-63&-45-41&-49&-59&-60&-63&-52&-50&-
34end{bmatrix}}}
Se procede a la transformación por DCT de la matriz, y el
redondeo de cada elemento al número entero más
cercano.
{displaystyle {begin{bmatrix}-415&-30&-61&27&56&-
20&-2&04&-22&-61&10&13&-7&-9&5-47&7&77&-
25&-29&10&5&-6-49&12&34&-15&-10&6&2&212&-
7&-13&-4&-2&2&-3&3-8&3&2&-6&-2&1&4&2-1&0&0&-
2&-1&-3&4&-10&0&-1&-4&-1&0&1&2end{bmatrix}}}
Nótese que el elemento más grande de toda la matriz
aparece en la esquina superior izquierda; este es el
coeficiente DC.
Cuantificación digital[editar]
"Antes de", en un bloquecillo 8×8 (ampliación ×16).
"Después de", en un bloquecillo 8×8, se notan errores
respecto a la primera imagen, como en la esquina
inferior izquierda, que está más clara.
El ojo humano es muy bueno detectando pequeños
cambios de brillo en áreas relativamente grandes, pero
no cuando el brillo cambia rápidamente en pequeñas
áreas (variación de alta frecuencia). Debido a esta
condición, se puede eliminar las altas frecuencias, sin
pérdida excesiva de calidad visual. Esto se realiza
dividiendo cada componente en el dominio de la
frecuencia por una constante para ese componente, y
redondeándolo a su número entero más cercano. Este
es el proceso en el que se pierde la mayor parte de la
información (y calidad) cuando una imagen es
procesada por este algoritmo. El resultado de esto es
que los componentes de las altas frecuencias, tienden a
igualarse a cero, mientras que muchos de los demás, se
convierten en números positivos y negativos pequeños.
Una matriz de cuantificación típica es la matriz de
Losheller que se usa opcionalmente en el estándar
JPEG:
{displaystyle
{begin{bmatrix}16&11&10&16&24&40&51&61
12&12&14&19&26&58&60&55
14&13&16&24&40&57&69&56
14&17&22&29&51&87&80&62
18&22&37&56&68&109&103&77
24&35&55&64&81&104&113&92
49&64&78&87&103&121&120&101
72&92&95&98&112&100&103&99end{bmatrix}}}
Dividiendo cada coeficiente de la matriz de la imagen
transformada entre cada coeficiente de la matriz de
cuantificación, se obtiene esta matriz, ya cuantificada:
{displaystyle {begin{bmatrix}-26&-3&-6&2&2&-
1&0&00&-2&-4&1&1&0&0&0-3&1&5&-1&-1&0&0&0
-4&1&2&-1&0&0&0&01&0&0&0&0&0&0&0
0&0&0&0&0&0&0&00&0&0&0&0&0&0&0
0&0&0&0&0&0&0&0end{bmatrix}}}
Por ejemplo, cuantificando el primer elemento, el
coeficiente DC, sería así:
{displaystyle mathrm {round} left({frac {-415}
{16}}right)=mathrm {round} left(-25.9375right)=-
26}Codificación entrópica[editar]
La codificación entrópica es una forma especial de la
compresión sin pérdida de datos. Para ello se toman los
elementos de la matriz siguiendo una forma de zig-zag,
poniendo grupos con frecuencias similares juntos, e
insertando ceros de codificación, y usando la
codificación Huffman para lo que queda. También se
puede usar la codificación aritmética, superior a la de
Huffman, pero que rara vez se usa, ya que está cubierta
por patentes, esta compresión produce archivos un 5%
menores, pero a costa de un mayor tiempo de
codificación y decodificación, esta pequeña ganancia,
puede emplearse también en aplicar un menor grado de
compresión a la imagen, y obtener más calidad para un
tamaño parecido.
En la matriz anterior, la secuencia en zig-zag, es esta:
−26, −3, 0, −3, −2, −6, 2, −4, 1 −4, 1, 1, 5, 1, 2, −1, 1, −1, 2,
0, 0, 0, 0, 0, −1, −1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0,
0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0
JPEG tiene un código Huffman para cortar la cadena
anterior en el punto en el que el resto de coeficientes
sean ceros, y así, ahorrar espacio:
−26, −3, 0, −3, −2, −6, 2, −4, 1 −4, 1, 1, 5, 1, 2, −1, 1, −1, 2,
0, 0, 0, 0, 0, −1, −1, EOB
Ruido producido por la compresión[editar]
Tras la compresión, suelen quedar a veces bloques
como estos, en este caso en un trozo de una imagen
ampliado.
El resultado tras la compresión, puede variar, en función
de la agresividad de los divisores de la matriz de
cuantización, a mayor valor de esos divisores, más
coeficientes se convierten en ceros, y más se comprime
la imagen. Pero mayores compresiones producen mayor
ruido en la imagen, empeorando su calidad. Una imagen
con una fuerte compresión (1%-15%) puede tener un
tamaño de archivo mucho menor, pero tendrá tantas
imperfecciones que no será interesante, una compresión
muy baja (98%-100%) producirá una imagen de muy alta
calidad, pero, tendrá un tamaño tan grande que quizás
interese más un formato sin pérdida como PNG.
La mayoría de personas que naveguen por Internet
estarán familiarizadas con estas imperfecciones, que
son el resultado de lograr una buena compresión. Para
evitarlas, se tendrá que reducir el nivel de compresión o
aplicar compresión sin pérdida, produciendo mayores
ficheros después.
Decodificación[editar]
El proceso de decodificación es similar al seguido hasta
ahora, sólo que de forma inversa. En este caso, al haber
perdido información, los valores finales no coincidirán
con los iniciales.
Se toma la información de la matriz, se decodifica, y se
pone cada valor en su casilla correspondiente. Después
se multiplica cada uno de estos valores por el valor
correspondiente de la matriz de cuantización usada,
como muchos valores son ceros, sólo se recuperan ( y
de forma aproximada) los valores de la esquina superior
izquierda.
Después se deshace la transformación DCT:
{displaystyle {begin{bmatrix}-416&-33&-60&32&48&-
40&0&00&-24&-56&19&26&0&0&0-42&13&80&-
24&-40&0&0&0-56&17&44&-29&0&0&0&0
18&0&0&0&0&0&0&00&0&0&0&0&0&0&0
0&0&0&0&0&0&0&00&0&0&0&0&0&0&0
end{bmatrix}}}{displaystyle {begin{bmatrix}-68&-65&-
73&-70&-58&-67&-70&-48-70&-72&-72&-45&-20&-
40&-65&-57-68&-76&-66&-15&22&-12&-58&-61-62&-
72&-60&-6&28&-12&-59&-56-59&-66&-63&-28&-8&-
42&-69&-52-60&-60&-67&-60&-50&-68&-75&-50-54&-
46&-61&-74&-65&-64&-63&-45-45&-32&-51&-72&-58&-
45&-45&-39end{bmatrix}}}
Y finalmente se suma 128 a cada entrada:
{displaystyle
{begin{bmatrix}60&63&55&58&70&61&58&80
58&56&56&83&108&88&63&71
60&52&62&113&150&116&70&67
66&56&68&122&156&116&69&72
69&62&65&100&120&86&59&76
68&68&61&68&78&60&53&78
74&82&67&54&63&64&65&83
83&96&77&56&70&83&83&89end{bmatrix}}}
Para comparar las diferencias entre el bloque original y
el comprimido, se halla la diferencia entre ambas
matrices, la media de sus valores absolutos, da una
ligera idea de la calidad perdida:
{displaystyle {begin{bmatrix}-8&-8&6&8&0&0&6&-
75&3&-1&7&1&-3&6&12&7&6&0&-6&-12&-4&6-
3&2&3&0&-2&-10&1&-3-2&-1&3&4&6&2&9&-611&-
3&-1&2&-1&8&5&-311&-11&-3&5&-8&-3&0&04&-17&-
8&12&-5&-7&-5&5end{bmatrix}}}
Se puede observar que las mayores diferencias están
cerca de la mancha, y por la parte inferior, entre la
esquina izquierda y el centro, notándose más esta
última, ya que corre una mancha clara que antes estaba
más hacia la esquina. La media de los valores absolutos
de las restas es 4.8125, aunque en algunas zonas es
mayor.
Portable Network Graphics conocido como un
Png
Portable Network Graphics (PNG) (siglas en inglés de
Gráficos de Red Portátiles, pronunciadas "ping") es un
formato gráfico basado en un algoritmo de compresión
sin pérdida para bitmaps no sujeto a patentes. Este
formato fue desarrollado en buena parte para solventar
las deficiencias del formato GIF y permite almacenar
imágenes con una mayor profundidad de contraste y
otros importantes datos.
Las imágenes PNG usan la extensión .png y han
obtenido un tipo MIME (image/png) aprobado el 14 de
octubre de 1996.
Detalles técnicos[editar]
Un archivo PNG empieza con una firma de 8 bytes, los
valores en hexadecimal son: 89 50 4E 47 0D 0A 1A 0A,
los valores decimales son: 137 80 78 71 13 10 26 10;
cada valor está ahí por una razón específica.1
[[PASTING TABLES IS NOT SUPPORTED]]Segmentos del
archivo[editar]
Después de la cabecera se encuentran una serie de
segmentos de los cuales cada uno guarda cierta
información acerca de la imagen. Los segmentos se
auto declaran como puntos críticos (critical) o auxiliares
(ancillary) de modo que un programa que encuentre un
segmento auxiliar y no lo entienda puede ignorarlo sin
peligro. La estructura basada en segmentos está
diseñada para poder ampliar el formato PNG
manteniendo la compatibilidad con versiones antiguas.
Cada una de las secciones tiene una cabecera que
específica su tamaño y tipo, inmediatamente seguido de
los datos y el checksum de los datos. Las secciones
tienen un nombre de 4 letras que es sensible a las
mayúsculas. El uso de mayúsculas o minúsculas en
dicho nombre provee a los decodificadores de
información acerca de las secciones que no son
reconocidas.
Si la primera letra es mayúscula esto indica que la
sección es esencial, en caso contrario será auxiliar. Las
secciones esenciales son necesarias para leer el fichero,
si el decodificador encuentra una sección esencial que
no reconoce debe abortar la lectura.
En caso de que la segunda letra sea mayúscula esto
significará que la sección es pública en la especificación
o el registro de secciones para propósitos especiales, en
caso contrario será privada (no estandarizada). Este uso
de mayúsculas y minúsculas asegura que nunca haya
conflictos entre secciones públicas y privadas.
La tercera letra debe estar en mayúsculas para cumplir
las especificaciones de PNG y está reservada para
futuras expansiones.
La cuarta letra indica si es seguro copiar la sección en
caso de que no sea reconocida, en caso de estar en
minúsculas es seguro copiar la sección sin importar la
cantidad de modificación que haya sufrido el fichero, si
es mayúscula solo se deberán copiar si no hay
secciones críticas que hayan sufrido modificaciones.
Secciones esenciales[editar]
Un decodificador debe ser capaz de entender estas
secciones para leer y renderizar un PNG:
IHDR, debe ser la primera sección, contiene la
cabecera.
PLTE, contiene la paleta (lista de colores).
IDAT, contiene la imagen que debe ser dividida en
múltiples secciones IDAT, haciendo esto se
incrementa el tamaño de la imagen ligeramente pero
hace posible generar imágenes PNG en streaming.
IEND, marca el final de la imagen.
Secciones de metadatos[editar]
Otros atributos que pueden ser guardados en una
imagen PNG son: valores de gamma, color del fondo e
información textual. PNG también soporta corrección de
color con el uso de sistemas de manejo del color como
sRGB.
bKGD: contiene el color de fondo por defecto, se usa
cuando no hay un mejor color disponible para
mostrar, como en un visor de imágenes pero no en
un navegador web.
cHRM: balance de blanco.
gAMA: específica la gamma.
hIST: guarda el histograma o cantidad total de cada
color en la imagen.
iCCP: perfil ICC de color.
iTXt: contiene texto (UTF-8) comprimido o no.
pHYs: contiene el tamaño previsto del píxel y/o el
ratio de la imagen.
sBIT: (bits significativos) indican la exactitud de los
colores en la imagen.
sPLT: sugiere una paleta para usar en caso de que el
rango completo de colores no esté disponible.
sRGB: indica que se usa el estándar sRBG color
space.
tEXt: almacena texto que puede ser representado en
ISO 8859-1 con un nombre=valor para cada sección.
tIME: almacena la fecha de la última modificación.
tRNS: contiene información sobre la transparencia.
Para imágenes indexadas almacena el canal alpha
para una o más paletas, para imágenes en color real
y escala de grises almacena la información de un
solo píxel que debe ser considerado completamente
transparente.
zTXt: contiene texto comprimido con los mismos
límites que tEXt.
La primera letra en minúsculas de estas secciones
indica que no son necesarias en la especificación de
PNG, la última letra en minúsculas indica que es seguro
copiarlas incluso si la aplicación en cuestión no las
entiende.
Otros atributos que pueden ser almacenados en un PNG
incluyen valores de corrección gamma, color de fondo y
metadatos. PNG además también utiliza la corrección
de color que utilizan los sistemas de administración de
color como el sRGB. Algunos programas como Adobe
Photoshop disponen de este sistema.
Profundidad de color[editar]
Las imágenes en formato PNG pueden ser imágenes de
paleta indexada o estar formadas por uno o varios
canales. Si existe más de un canal, todos los canales
tienen el mismo número de bits por píxel (también
llamado profundidad de bits por canal). Aunque en la
especificación oficial del PNG se nombra la profundidad
de bits por canal, normalmente los programas de
edición nombran solo la cantidad total de bits por píxel,
es decir, la profundidad de color.
El número de canales depende de si la imagen es en
escala de grises o en color y si dispone de canal alfa
(también llamado canal de transparencia). La
combinaciones permitidas por PNG son:
Escala de grises (1 canal).
Escala de grises y canal alfa (2 canales).
Canales rojo, verde y azul (RGB, 3 canales, también
llamado color verdadero o Truecolor).
Canales rojo, verde, azul y alfa (RGB + alfa, 4
canales).
Por otra parte, las imágenes indexadas disponen de un
tope de 256 colores como máximo. Esta paleta de
colores está almacenada con una profundidad de canal
de 8 bits. La paleta no puede tener más colores que los
marcados por la profundidad de bits, es decir 28=256
colores, aunque sí puede tener menos (por ejemplo, una
imagen de 50 colores solo almacenará 50 entradas,
evitando almacenar datos que no son utilizados).
[[PASTING TABLES IS NOT SUPPORTED]]
La tabla expuesta a la derecha indican la profundidad de
color para cada formato de imagen que soporta PNG.
Esta se extrae de la profundidad de bits por canal y se
multiplica por el número de canales. Las casillas en rojo
representan combinaciones no soportadas. El estándar
requiere que los decodificadores puedan leer todos los
formatos disponibles, pero muchos editores de imagen
solo pueden generar un pequeño subconjunto de ellos.
Transparencia en la imagen[editar]
PNG ofrece una gran variedad de opciones de
transparencia: con color verdadero o escala de grises,
incluso un solo píxel puede ser declarado transparente o
puede añadirse un canal alfa. Para imágenes que usan
paletas se puede añadir un canal alfa en las entradas de
la paleta. El número de dichos valores almacenados
puede ser menor que el total de entradas en la paleta, de
modo que el resto de las entradas se considerarán
completamente opacas. La búsqueda de píxeles con
transparencia binaria debe hacerse antes de cualquier
reducción de color para evitar que algunos píxeles se
conviertan en transparentes accidentalmente.
A diferencia de la transparencia ofrecida por GIF que
solo puede tomar 2 valores (completamente
transparente o completamente opaco), el canal alfa de
PNG permite utilizar mayor profundidad de bits para
lograr efectos de semi-transparencia, propios de objetos
translúcidos. Por ejemplo, con una profundidad de 8 bits
para transparencias se pueden conseguir 28 = 256
grados diferentes de transparencia, como si se tratara
de un color.2
Compresión[editar]
El método de compresión utilizado por el PNG es
conocido como deflación (en inglés "Deflate algorithm").
También existen métodos de filtrado. En la
especificación 1.2 se define un único tipo de filtro, que
incluye 5 modos de predicción del valor del píxel, que
resulta muy útil para mejorar la compresión, donde se
elige para cada línea de la imagen (scanline) un método
de filtrado que predice el color de cada píxel basándose
en los colores de los píxeles previos y resta al color del
píxel actual, el color pronosticado. Los cinco métodos
son: None, Sub, Up, Average y Paeth.
Estos filtros pueden reducir notablemente el tamaño
final del archivo, aunque depende en gran medida de la
imagen de entrada. El algoritmo de compresión puede
encargarse de la adecuada elección del método que
mayor reducción ofrezca.
El tipo de media MIME para PNG es "image/png"
(aprobado el 14 de octubre de 1996).
Animación[editar]
APNG es una extensión de PNG que soporta animación.
Este formato soporta el visionado de una sola imagen
en caso de que el decodificador no entienda el archivo.
Es aceptado por múltiples navegadores3 y tiene
extensión .png.
Por otro lado, MNG es un formato de imagen que
soporta animación y está basado en las ideas y en
algunas secciones de PNG, pero es un sistema complejo
y no permite el visionado de una sola imagen en caso de
no existir soporte completo en el visualizador de
imágenes pertinente.
Comparación técnica con otros
formatos[editar]Comparación con GIF[editar]
En la mayoría de los casos, PNG comprime mejor
que el formato GIF, aunque algunas
implementaciones (véase Photoshop) realizan una
mala selección de los métodos de filtrado y se
generan ficheros de mayor tamaño.
El PNG admite, al igual que el GIF, imágenes
indexadas con transparencia de 1 bit o "binaria". Este
tipo de transparencia no requiere de un canal
adicional y únicamente admite que un color de la
paleta aparezca transparente al 100%.
El PNG admite formatos con una profundidad de
color de millones de colores (color verdadero) y
canal alfa, lo que proporciona unos rangos de color
mucho más ricos y precisos que el GIF y disponer de
valores de transparencia intermedios.
Lamentablemente, esto permite que se compare de
forma errónea los PNG de color verdadero con los
GIF de color indexado (256 colores).
GIF soporta animación y PNG no. (ver sección de
animación).
Comparación con JPEG[editar]
Imagen compuesta comparando JPEG y PNG: nótese
los artificios en la imagen JPEG versus el fondo en color
sólido para la misma imagen en PNG.
PNG y JPEG son formatos que están diseñados para
funciones diferentes, por lo que únicamente se puede
realizar una comparación generalista:
JPEG tiene una relación de compresión enorme en
perjuicio de la calidad de la imagen, ideal para
imágenes de gran tamaño y fotografías. No admite
transparencia.
PNG es un formato sin pérdida de calidad con una
excelente compresión, ideal para imágenes
formadas por grandes áreas de color plano o con
pocas variaciones de color. Admite canal alfa y
algunos atributos extra como la corrección gamma.
Sin embargo, no admite modo CMYK, por lo que no
es del todo útil para diseños de impresión.
PNG en la web[editar]
Pese a que las características técnicas y de
compresión hacen de PNG un formato ideal para
sustituir a GIF, su adopción ha sido muy lenta, debido
en parte a comparaciones erróneas y algunas
desventajas técnicas:
No está soportado por algunos navegadores muy
viejos (tales navegadores, sin embargo, entraron en
desuso en la primera década del siglo XXI).
la administración de color fallaba en algunos
navegadores (fácilmente evitable por la razón
anterior).
Problemas de color[editar]
Algunas versiones de algunos navegadores web
presentan los valores de corrección gamma incluso
cuando no están especificados en el PNG. Navegadores
conocidos con problemas de visualización de PNG:
Internet Explorer 5.5 y 6.
Netscape 7.0 a 7.2.
Opera (versiones anteriores a la 7.50).
El efecto final es que el color mostrado en el PNG no
coincide con el esquema de color del resto de la página
web. Una forma sencilla de evitar esto es volviendo a
codificar el PNG truncando ciertos atributos. Algunas
utilidades para tal fin:
PNGOUT es una utilidad gratuita de DOS que utiliza
un algoritmo exclusivo para recomprimir un PNG y
reducir el tamaño del fichero al mínimo, sin pérdidas.
Superpng, es un plugin gratuito para Photoshop que
permite la optimización de ficheros PNG.
OptiPNG es una utilidad gratuita que recomprime un
PNG, reduciendo su tamaño sin pérdidas.
Que es Graphics interchange format conocido
como un GIF
Graphics Interchange Format (GIF) (Compuserve GIF)
(traducido al español como Formato de Intercambio de
Gráficos), es un formato gráfico utilizado ampliamente
en la World Wide Web, tanto para imágenes como para
animaciones.
El formato fue creado por CompuServe en 1987 para
dotar de un formato de imagen en color para sus áreas
de descarga de archivos, sustituyendo su temprano
formato RLE en blanco y negro. GIF llegó a ser muy
popular porque podía usar el algoritmo de compresión
LZW (Lempel Ziv Welch) para realizar la compresión de
la imagen, que era más eficiente que el algoritmo Run-
length encoding (RLE) usado por los formatos PCX y
MacPaint. Por lo tanto, imágenes de gran tamaño
podían ser descargadas en un razonable periodo de
tiempo, incluso con módems muy lentos.
GIF es un formato sin pérdida de calidad para imágenes
con hasta 256 colores, limitados por una paleta
restringida a este número de colores. Por ese motivo,
con imágenes con más de 256 colores (profundidad de
color superior a 8), la imagen debe adaptarse
reduciendo sus colores, produciendo la consecuente
pérdida de calidad.
Historia[editar]
La imagen en movimiento, surge con los experimentos
del fisiólogo francés Étienne-Jules Marey y del fotógrafo
británico radicado en los Estados Unidos Eadweard
Muybridge (que, por una llamativa coincidencia, nacen y
mueren en los mismos años: 1830-1904), constituyen el
primer cuestionamiento de los datos que entregan los
sentidos, justamente a través de los sentidos.
En 1872, surge una incógnita alrededor de los
experimentos de Muybridge: ¿existía algún punto,
durante el galope de un caballo, en el cual sus cuatro
cascos se hallaban levantados del suelo al mismo
tiempo? Con esta cuestión, Muybrigde quiso mostrar al
ojo lo que jamás había visto. Esto lo logró colocando
doce cámaras Scoville con lentes rápidas de Dallmayer,
separadas por intervalos regulares a lo largo de una
pista; cada cámara se disparaba a través de un
dispositivo electromagnético accionado por el caballo a
medida que su paso cortaba los filamentos tendidos
transversalmente sobre la pista. como si fueran
fotogramas de una película, esas imágenes sucesivas
permitían ver con una nitidez irrefutable la evolución del
movimiento.
Por otro lado, Marey, dentro de su aspecto científico,
perfecciona la escopeta fotográfica, la cual era capaz de
tomar 12 exposiciones en 1 segundo. Él consideraba
que, lejos de ser permanentes, las imágenes retinianas
son fugitivas: persisten allí algunos instantes,
prolongando la duración aparente del fenómeno que las
ha hecho nacer. Afirmaba que esta propiedad de la
retina permitía estudiar cómo una imagen fotográfica
podía representar un movimiento.
A partir de estos acontecimientos, y de la necesidad de
representar el movimiento de una manera mucho más
realista, surgen distintas técnicas de variados artistas;
como por ejemplo Passion (1981, Jean-Luc Godard), The
Bow (Motion Study, Anton Giulio Bragaglia), Heliografía
(1993, Claudio Caldini).
GIF
Los GIFs se extendieron gracias al navegador Netscape
que permitía que se vieran. Si Netscape no hubiera
integrado los GIF, probablemente, hubieran muerto en
1998. Fue en ese año cuando CompuServe fue
comprada por AOL y dejó expirar la patente sobre ellos,
por lo que el formato quedó liberado para el público
general.
En los años 2000, cuando apareció Flash, un software
que permitía crear animaciones más atractivas,
potentes, que incluían audio y podían ser interactivas los
GIF quedaron en desuso. Paradójicamente, el software
Flash está obsoleto ya que las tabletas y smartphone
como los iPhone no lo reproducen. Si haces banners
publicitarios en Flash y quieres que estén desde otros
móviles y no se pueden ver, se deja de usar. Las razones
técnicas no son las únicas que justifican el repunte
actual del uso del GIF, la funcionalidad, la gran
aceptación social y potencia viral que tienen sumado a
que son fáciles de ver, de reproducir, de compartir y de
crear los hacen una herramienta gráfica comunicativa
muy completa.
En 2012, GIF se convirtió en la palabra del año al ser
reconocida por el diccionario de Oxford. Según
Katherine Martin, responsable del diccionario, “el GIF ya
no es solamente un medio de expresión de la cultura
pop: se ha convertido en una herramienta para la
investigación y el periodismo, y su identidad léxica se
transforma y se mantiene”.
Un año después, en 2013, el creador del formato, Steve
Wilhite, recogió el Webby Award a toda una vida y
aprovechó el momento para hacer una importante
revelación: en estos premios, el discurso no puede tener
más de cinco palabras y Wilhite optó por proyectar las
suyas en la pared: "Se pronuncia JIF, no GIF”. Además
ese mismo año, Alex Chung y Hace Cooke fundaron la
base de datos online Giphy, que permite a los usuarios
compartir y buscar archivos de GIFs animados. Su idea
surgió con la intención de transmitir información de
forma rápida y más visual.
En 2015, Facebook añadió soporte para GIFs en su
página y sus chats, aunque originalmente no dieran
apoyo a este formato de comunicación.1
Actualmente Whatsapp ha incluido los GIFs en su
plataforma.
Características[editar]
Una imagen GIF puede soportar transparencias y puede
contener entre 2 y 256 colores (2, 4, 8, 16, 32, 64, 128 ó
256) entre 16,8 millones de su paleta. Por lo tanto, dado
que la paleta tiene un número de colores limitado (no
limitado en cuanto a colores diferentes), las imágenes
que se obtenían con este formato por lo general eran
muy pequeñas.
Sin embargo, dado que el algoritmo de compresión LZW
estaba patentado, todos los editores de software que
usaban imágenes GIF debían pagarle regalías a Unisys,
la compañía propietaria de los derechos. Esta es una de
las razones por las que el formato PNG se está
volviendo cada vez más popular, en perjuicio del formato
GIF.
El GIF soporta 8 bits por píxel en cada imagen y una
característica esencial es el loop infinito.
Usos[editar]
El uso de los GIF es generalmente para la publicidad en
tipo banners. Su principal utilidad hoy en día sigue
siendo el despliegue de imágenes animadas para
páginas web, al ser el único formato soportado por
multitud de navegadores que permita dicho efecto. Cabe
destacar que la animación de este tipo de imágenes
solo se puede visualizar en cierto tipo de aplicaciones y
programas como presentaciones power point o páginas
web, pero en hojas de cálculo o documentos de texto las
imágenes gif pierden su animación.2
Actualmente, los medios de comunicación, así como el
cine, las televisoras y las campañas publicitarias, han
optado por usar el formato GIF como medio de
transmisión de datos, información y productos,
aprovechando la rapidez de propagación y el auge que
desde el 2012 ha tenido.
Estamos viviendo tiempos característicos por la
sobrecarga de estímulos e información, es por eso que
los GIFs suponen un momento de sosiego entre el video
y la imagen fija. La manera de observar la realidad está
cambiando, ahora nos fijamos en lo infinitesimal.
La Oxford University Press afirma que el formato se ha
convertido en una herramienta con aplicaciones serias y
aplicada en campos de investigación y periodismo.
Patentes[editar]
Unisys, propietario de la patente del algoritmo LZW que
se utiliza en el formato GIF reclamó durante años el
pago de regalías por su uso. Compuserve, al desarrollar
el formato, no sabía que el algoritmo LZW estaba
cubierto por una patente. Debido a esto, cualquier
programa capaz de abrir o guardar archivos GIF
comprimidos con LZW debía cumplir con sus
exigencias. Es necesario recalcar que el formato GIF
puede utilizar otros métodos de compresión no
cubiertos por patentes, como el método Run-length
encoding.
El 20 de junio de 2003 expiró en Estados Unidos la
patente por el algoritmo LZW.
[editar]
Las redes sociales como Google Plus que permiten las
animaciones han hecho que el gif animado vuelva a ser
un formato muy utilizado por su sencillez de edición y
poco peso frente a los vídeos.3
Recientemente, redes sociales como Telegram,4 Twitter
y Facebook se han sumado y han incluido la posibilidad
de usar imágenes GIF en sus servicios. Su popularidad
también llega hasta webs dedicadas a este tipo de
imágenes como GIPHY, que cosecha puestos
privilegiados (322) en el ranking Alexa.
Plataformas como Tumblr y Giphy son famosas por
permitir acceso a gifs de infinidad de temas,
permitiendo a los usuarios cargar, descargar y hasta
crear sus propios gifs.
GIF en WhatsApp[editar]
Actualmente los GIF se han extendido de tal manera que
incluso se utilizan para responder mensajes, y este es el
caso de la aplicación de mensajería instantánea,
WhatsApp. La aplicación habilitó el envío de estos en la
versión beta v2.17.6 5de una manera rápida y fácil: se
trata de abrir la pestaña del emoticono en la parte
izquierda de la pantalla. Una vez se abre la selección de
emoticonos, en la parte inferior se encuentra el símbolo
GIF. Al seleccionarlo, se puede elegir de entre una gran
lista de emoticonos e incluso hay una barra de
búsqueda para encontrar el GIF más adecuado. 6
GIF en Instagram[editar]
En febrero de 2018 se incorporó una nueva función en
Instagram, concretamente en los "Instagram stories". Se
añadió una nueva opción donde había las opciones de
ubicación, hashtag, hora, temperatura, encuestas...7 Lo
hicieron a través de Giphy una web que reúne estas
animaciones desde hace tiempo. Se encarga de
controlar los GIF's, censurar aquellos que son impropios
y permitir los que no tienen contenido molesto para los
usuarios. Recientemente, un GIF se saltó el filtro de
Giphy y salió a la luz un GIF de carácter racista. Como
consecuencia se censuró el uso de GIF's en esta red
social. Una vez aseguraron que se había añadido otro
nivel de moderación en el filtro y tomaron las medidas
necesarias para que no volviera a pasar, se volvió a
permitir el uso de GIF's en Instagram. 8
GIF en Telegram[editar]
La función de GIF en Telegram se incorporó en 2016.9
Inicialmente fue con el bot @gif y más adelante dentro
las opciones de adjuntos.10 El servicio para compartir
contenido es Giphy y usa codificación MP4.9
GIFs en la comunicación[editar]
Aunque tengamos la opción de transmitir la misma idea
con un pequeño vídeo, o con una frase, un GIF presenta
unas ventajas técnicas y a tener en cuenta: dinamiza la
comunicación, tiene una reproducción inmediata, facilita
la retención visual, y produce un impacto emocional.
GIF en los medios de comunicación[editar]
La primera revista en atreverse a publicar una portada
que incluía un gif animado, fue la norteamericana TIME ,
que tras la presentación por parte de Apple de sus
nuevos modelos de iPhone y Apple Watch el 9 de
septiembre de 2014, construyó una portada alrededor de
un artículo que nos hablaba sobre como Apple está
invadiendo nuestros cuerpos. La imagen que se escogió
para ilustrar dicho artículo en sus versiones digitales fue
la de una muñeca humana en la que parpadeaban
gráficos y números: un GIF. Su versión en papel era igual
pero sin movimiento. Unos días después de esta
publicación, el 29 de septiembre de 2014, la revista New
Yorker presentó una portada animada en su página web
y su aplicación móvil. La imagen constaba simplemente
de un taxi neoyorquino con el Empire State de fondo y
unas gotas de lluvia que se deslizaban por la pantalla.
Hoy en día por ejemplo, lectores de todas las ediciones
internacionales del Huffington Post están
acostumbrados a las noticias que incluyen GIFS y a su
aparición en la portada. Incluso medios de
comunicación más tradicionales como podría ser The
New York Times ha trabajado con ellos.11
YouTube (pronunciación AFI [ˈjuːtjuːb]) es un sitio web
dedicado a compartir videos. Presenta una variedad de
clips de películas, programas de televisión y vídeos
musicales, así como contenidos amateur como
videoblogs y YouTube Gaming. A pesar de las reglas de
YouTube contra subir vídeos con todos los derechos
reservados, este material existe en abundancia. Las
personas que crean contenido para esta plataforma
generalmente son conocidas como youtubers.
Fue creado por tres antiguos empleados de PayPal en
febrero de 20053 y, en octubre de 2006 fue adquirido por
Google Inc. a cambio de 1 650 millones de dólares y
ahora opera como una de sus filiales. Es el sitio web de
su tipo más utilizado en internet.
YouTube usa un reproductor en línea basado en HTML5,
que incorporó poco después de que la W3C lo
presentara y que es soportado por los navegadores web
más difundidos. Antiguamente su reproductor
funcionaba con Adobe Flash, pero esta herramienta fue
desechada en 2016. Los enlaces a vídeos de YouTube
pueden ser también insertados en blogs y sitios
electrónicos personales usando API o incrustando cierto
código HTML.
El 29 de agosto de 2017, YouTube dio a conocer algunos
cambios en el diseño de su versión web y presentó un
nuevo logotipo, que por primera vez separa el nombre
del ícono.45
Historia
YouTube fue fundado por Chad Hurley, Steve Chen y
Jawed Karim en febrero de 2005 en San Bruno,
California. Todos ellos se conocieron cuando trabajaban
en PayPal, Hurley y Karim como ingenieros y Chen como
diseñador.6
Antigua sede de Youtube hasta 2017
De acuerdo con Hurley y Chen, la idea de Youtube surgió
ante las dificultades que experimentaron al tratar de
compartir vídeos tomados durante una fiesta en San
Francisco. Esta historia ha sido considerada una versión
muy simplificada, y Chen ha reconocido que esta idea se
puede haber promovido por la necesidad de presentar
una historia sencilla al mercado.6 Karim ha declarado
que la fiesta nunca ocurrió, y que la idea de compartir
vídeos en Internet fue suya.6 Sus compañeros han
declarado que la fiesta sí ocurrió, y que la idea original
de Karim era crear una página de citas, donde las
personas pudiesen calificarse sobre la base de sus
vídeos. Karim reconoce haber sido influenciado por un
sitio de citas llamado HotorNot.com , donde los
usuarios podían cargar fotos suyas, que luego eran
calificadas por otros usuarios.6
El dominio fue activado el 15 de febrero de 2005,7 y el
23 de abril fue cargado el primer vídeo, Me at the Zoo
(‘Yo en el zoológico’).8 En la primavera YouTube entró en
línea. Sin embargo, los creadores se percataron
rápidamente de que los usuarios cargaban toda clase de
vídeos, dejando atrás la idea original. El tráfico se
disparó cuando la gente empezó a colocar enlaces de
YouTube en sus páginas de MySpace.6 El rápido
crecimiento del sitio atrajo a Time Warner y Sequoia
Capital, que invirtieron en el mismo. Luego de que, en
octubre de 2005, la empresa Nike colocara un spot
protagonizado por Ronaldinho, grandes compañías
empezaron a sentirse atraídas por YouTube.6 Solo en
2005, Sequoia tuvo que invertir 8,5 millones de dólares
estadounidenses en el sitio.
Para diciembre de 2005, las páginas de YouTube eran
visitadas unas 50 millones de veces al día. Sin embargo,
luego de que el vídeo musical Lazy Sunday, transmitido
originalmente en el show Saturday Night Live, fuera
cargado a YouTube, las visitas se dispararon de nuevo
hasta alcanzar las 250 millones de visualizaciones
diarias.8 Para mayo de 2006, según Alexa.com, YouTube
alcanzó los 2000 millones de visualizaciones por día, y
para mediados de agosto había alcanzado la marca de
7000 millones en diversas oportunidades;8 además, se
había convertido en el décimo sitio más visitado en
Estados Unidos. En aquel momento, el New York Post
estimó que YouTube debía valer entre 600 y 1000
millones de dólares estadounidenses.8 MySpace.com y
Google publicaron sus propias versiones de YouTube,
sin éxito.
Para octubre de 2006, las oficinas de YouTube
permanecían en el condado de San Mateo, ubicadas en
el segundo piso de un edificio, y contaba con unos 60
empleados. Un ejecutivo de Universal Music Group había
anunciado hace poco que «YouTube les debía decenas
de millones de dólares», por violación de derechos de
autor.9 Mark Cuban, cofundador de Broadcast.com, un
servicio de radio por Internetcomprado por Yahoo en
1999, había declarado un mes antes que «solo un tonto
compraría YouTube por los potenciales problemas
legales que enfrentaría».9 No obstante, los propietarios
del sitio ya se habían comprometido con Warner Music
para mejorar el servicio, de manera tal que pudiesen
detectar más rápidamente cuándo un vídeo de su
propiedad era cargado al sitio. No obstante, a inicios de
ese mes se publicó un reporte en el Wall Street Journal
que indicaba que Google iba a comprar YouTube por
1600 millones de dólares. Dicha información
inicialmente fue negada por YouTube y Google, que la
calificaron como rumores.
Ese mismo mes Google compró YouTube por 1650
millones de dólares en acciones.10 En el momento de la
compra 100 millones de vídeos en YouTube eran
visualizados y 65 mil nuevos vídeos era añadidos
diariamente. Además, unos 72 millones de personas la
visitaban por mes. Hurley y Chen mantuvieron sus
cargos, al igual que los 67 empleados que en ese
momento trabajaban en la empresa.11 En los días
anteriores, YouTube había firmado dos acuerdos con
Universal Music Group y la CBS; y Google había firmado
acuerdos con Sony BMG y Warner Music para la
distribución de vídeos musicales.
Para junio de 2008, el 38 % de los vídeos visualizados en
Internet provenían de YouTube; el competidor más
cercano solo llegaba a representar el 4 %. Aunque
Google no reveló las cifras, se estimó que el sitio generó
200 millones de dólares estadounidenses ese año.12 En
ese mes, un anuncio en la página de inicio de YouTube
costaba 175 000 dólares diariamente, y el cliente debía
comprometerse a gastar 50 000 dólares adicionales en
anuncios en Google u otras páginas de YouTube. Sin
embargo, debido a que el contenido de la vasta mayoría
de los vídeos en YouTube no atraían a los anunciantes,
los precios de los anuncios se colapsaron. YouTube
procedió a presionar a los estudios de cine y televisión
para que produjeran contenido audiovisual de calidad, y
les ofreció canales destacados, donde podían presentar
anuncios de estrenos de películas y cortos de televisión.
También llegó a colocar anuncios antes del inicio de un
vídeo, pero luego descubrieron que el 70 % de los
usuarios abandonaba el sitio antes de que éste
terminase.12
La relación de YouTube con las empresas productoras
de televisión y cine ha sido variada. Viacom continúa la
demanda contra YouTube por 1000 millones de dólares,
iniciada en marzo de 2007, por supuesta violación
masiva de derechos de autor.13 Por otro lado, Disney
firmó a finales de marzo de 2009 un acuerdo con
YouTube, autorizando la transmisión de vídeos cortos de
la ABC y ESPN. Disney podrá presentar anuncios en
YouTube gracias a este trato. En abril de 2009 Google
anunció que YouTube firmó alianzas con algunos
estudios de Hollywoodpara que el sitio pudiese mostrar
programas de televisión y películas completas.14 En
enero de 2010, se lanza YouTube Rentals, un servicio de
videoclub por Internet con películas completas que se
pueden ver al instante previo pago.15
En los últimos años, Google todavía no ha logrado
convertir efectivamente el alto tráfico de YouTube en
ganancias; la empresa ha reconocido esto, pero se ha
negado a proporcionar las cifras.16 De acuerdo con un
artículo de la revista Forbes, se estimaba que YouTube
generaría 240 millones de dólares en el año 2009,
quedando muy por debajo de los 710 millones en costos
operativos del sitio.17 Según un analista de la Credit
Suisse, YouTube estaría presentando pérdidas por 470
millones de dólares estadounidenses en 2009;17 sin
embargo, otras empresas estiman las pérdidas en 174,2
millones.16
En el año 2015, se consideraba que Youtube no era
rentable, siendo que en el año 2014 reportó ingresos por
$4.000 millones de dólares, frente a los $3.000 millones
del año anterior, pero luego de pagar por el contenido y
los equipos que reproducen de forma rápida los videos,
el balance quedó en un punto de equilibrio, o sea que no
ganó ni perdió dinero. Estos resultados reflejan las
dificultades que tiene para expandir su audiencia que
está conformada principalmente por adolescentes y
preadolescentes. La mayoría de los usuarios utiliza al
sitio como un depósito de videos a los cuales se accede
desde enlaces o código insertado que son publicados en
otras páginas, en lugar de visitar youtube.com.18
En febrero de 2015, YouTube lanzó una aplicación móvil
conocida como YouTube Kids. La aplicación está
diseñada para los niños, y cuenta con una interfaz
simplificada, con selecciones de canales cuyo contenido
sea apropiado para niños y funciones de control
parental.19Más tarde, el 26 de agosto de 2015, YouTube
lanzó YouTube Gaming, un sub-sitio orientado a juegos
de video y una aplicación que pretende competir con la
Twitch.tv de Amazon.com.20 En el año 2015 también se
anunció un servicio premium de YouTube titulado
YouTube Red, que ofrece a los usuarios contenido libre
de anuncios y también la posibilidad de descargar
videos entre otras cosas.21 El 10 de agosto de 2015,
Google anunció que estaba creando una nueva
compañía, Alphabet, para actuar como holding de
Google, con el cambio en la información financiera a
partir del cuarto trimestre de 2015. YouTube sigue
siendo una subsidiaria de Google.22 En enero de 2016,
YouTube amplió su sede en San Bruno al comprar
oficinas por 215 millones de dólares. El complejo puede
albergar hasta 2.800 empleados.23
YouTube también renovó su apariencia de aplicación
móvil en agosto de 2017. La plataforma de videos
YouTube dio a conocer las nuevas características de su
aplicación móvil, tal como el nuevo diseño, velocidades
en reproducción, visualización automática y opciones
con pantalla completa. En su blog oficial, la plataforma
destacó que está en evolución, por lo que han
comenzado una serie de actualizaciones durante lo que
resta del año, con un nuevo nivel de funcionalidad y una
mirada constante a través de las experiencias móviles y
de escritorio. Apuntó que el nuevo diseño consiste en un
encabezado en blanco, para que el contenido resalte, y
se movimiento de las pestañas de navegación hasta la
parte inferior de la aplicación, para que estén más cerca
de los pulgares. También, expuso que se agregaron
nuevas pestañas en la biblioteca y en la cuenta que le
dan acceso fácil a lo que está buscando. Asimismo,
explicó que a principios de este año, se introdujo un
gestor que permite doblar el toque en el lado izquierdo o
derecho de un video para avanzar o retroceder
rápidamente 10 segundos. La empresa con sede en San
Bruno, California, comentó que en los próximos meses
“experimentaremos una función que permite saltar entre
vídeos con un movimiento: simplemente desliza hacia la
izquierda para ver un vídeo anterior o desliza el dedo
hacia la derecha para ver el siguiente”. En el caso de la
velocidad, manifestó que a los usuarios les encanta
acelerar y ralentizar la reproducción de un video en el
escritorio, por lo que dicha función se trasladó a la
aplicación móvil, para que los usuarios le den la
velocidad que deseen. También añadirá una función que
permita ver filas de videos sugeridos mientras se
observa un video con pantalla completa, en tanto que en
poco se cambiará la forma en que se ven los videos en
vertical, cuadro u horizontal, sin barras negras en los
lados.2425
El YouTube cambió de logo por primera vez en su
historia, dado a conocer el 29 de agosto de 2017. Ahora,
el logo tiene la palabra YouTube con todas sus letras
negras, mientras que el símbolo de “play” de color rojo
aparece al costado izquierdo.26
En 2019, la canción Kill this love, del grupo Blackpink, se
convirtió en el videoclip más visto en YouTube en sus
primeras 24 horas con 56,7 millones de visualizaciones.
[1]
Características y críticasSobre la búsqueda de vídeos
Comparación de las distintas calidades de vídeo que
ofrece YouTube.
YouTube mantiene una logística que permite localizar
cualquier vídeo por medio de las etiquetas de metadato,
títulos y descripciones que los usuarios asignan a sus
vídeos, pero cuyo uso está restringido únicamente a los
vídeos alojados en YouTube. Sin embargo, a raíz de la
compra de YouTube por parte de Google, Google Video
empezó a agregar a sus búsquedas los contenidos de
YouTube.
En junio de 2007 se dio un importante paso hacia la
internacionalización del sitio, al traducir su interfaz a
diversos idiomas, entre ellos el español.
Reproductor
El diseño del reproductor es minimalista y ligero, basado
en un color predeterminado: el gris claro, debido a que la
empresa busca la comodidad en lo que respecta al tipo
de banda de Internet. El primer reproductor de YouTube
tenía un diseño curveado, simple, con las opciones
resaltando como botones. A mediados de 2007, el
segundo cambió a uno más limpio y moderno, con una
estructura más recta y con las opciones separadas por
espacios compartidos. Se agregó opciones como
agregar anotaciones, pausar haciendo clic sobre la
pantalla del reproductor, banners publicitarios similares
a los que aparecen en la televisión, subtítulos originales
y traducidos. A veces, se incluyen spots cortos antes del
vídeo.
En 21 de enero de 2010 en las opciones del reproductor
se agrega un menú desplegable para seleccionar la
calidad de vídeo que se quiere visualizar y dos nuevos
iconos para cambiar el tamaño del reproductor y para
visualizar el vídeo a pantalla completa, respectivamente.
Cuando hay subtítulos, aparece un icono que permite
mostrarlos.
Últimamente, también Youtube ha agregado la
capacidad de ver algunos videos en 3D y resoluciones
hasta Ultra alta definición. Por otro lado, existe la
posibilidad de ver subtítulos, que están en formato
SubViewer (*.SUB) y SubRip (*.SRT).27
Cada vídeo cuenta con su propio contador de visitas que
permite dar a conocer la popularidad del mismo
abiertamente. En 2012 el código de Youtube fue
reprogramado para diferenciar dos tipos de material
según la cantidad de sus visitas. Los vídeos cuyo
contador no llega a las trescientas visitas son
considerados «inocuos». Por otro lado, aquellos que
hayan sido visitados más de trescientas veces pasan a
ser verificados manualmente para garantizar le
legitimidad de la cifra de visitas. Debido a esto, el
contador se congela y, momentáneamente, no refleja en
tiempo real el número de personas que ya vio el vídeo.
Una vez que pasó por la verificación, el contador se
actualiza y se suman las visitas que habían quedado en
espera. Sin embargo, un error en la programación del
código determinó que la cifra sea de trescientos uno, y
no trescientos, lo que produjo diferentes reacciones por
parte de los usuarios ante la aparente arbitrariedad del
número. A raíz de esto, el fenómeno fue conocido como
el misterio de las 301 visitas.28
Calidad de vídeo
En Google Vídeo y otros sitios de vídeos hay quejas
acerca de la calidad, siendo que los vídeos se pixelan
(aparecen cuadros de color uniforme de mayor tamaño,
en forma de mosaico), en gran medida debido al
equilibrio entre calidad de imagen y velocidad de
transmisión de datos en la red. Otro problema es que en
bastantes clips, el audio y el vídeo no están
sincronizados; aunque esto depende del formato del
archivo original.
En general, todos los vídeos deben ocupar un espacio en
disco no mayor a 2 GB y deben tener una duración
menor o igual a 15 minutos, con una tolerancia extra de
59 segundos de grabación, es decir, una duración total
de 15:59 segundos. La totalidad de los vídeos son
convertidos a resoluciones de 320×240 y 480×360
píxeles, y a 30 fotogramas por segundo, aunque los
vídeos alojados antes de marzo de 2008 sólo están
disponibles en la resolución más baja. A pesar de que
todos los vídeos se muestran predeterminadamente en
la resolución menor, los usuarios pueden reproducirlos
en alta calidad ajustando sus preferencias.
No todos los vídeos de YouTube han sido optimizados o
convertidos a un formato de alta resolución; sin
embargo, hay un pequeño porcentaje que sí lo está, y
para visualizarlos se debe agregar el parámetro
«&fmt=6» (sin comillas) al final de la dirección
URL[cita requerida]. El vídeo seguiría siendo un vídeo en
formato FLV pero con calidad superior, siempre y cuando
exista dicha versión; de lo contrario, solamente se
visualizará la versión normal. Como método alternativo,
puede agregarse «&fmt=18», parámetro que está
disponible para casi todos los vídeos (en formato
MP4).[cita requerida]
Desde finales de 2008 se pueden ver videos HD con
calidad 720p y desde 2009 con calidad 1080p, a las
cuales se puede acceder eligiendo la calidad deseada en
uno de los botones que aparece en la esquina derecha
inferior del video. Al igual que el formato de HQ (alta
calidad), el formato HD (alta definición) solamente se
visualizará si existe la versión.
El 25 de noviembre de 2008, YouTube cambió la relación
de aspecto de su reproductor de vídeo, de 4:3 a 16:9,
siguiendo el estándar de los televisores LCD y de
plasma, y también en concordancia con las intenciones
de la empresa de transmitir películas completas en el
futuro.29 Este cambio de aspecto es para todos los
vídeos, por lo que los que están en formato 4:3 se ven
con franjas negras a los lados.
[[PASTING TABLES IS NOT SUPPORTED]]
Posteriormente se añadieron las resoluciones QHD
(1440p) y 4K o Ultra alta definición. En julio de 2015 se
añadió la resolución 8K (hasta 7.680 × 4.320 píxeles) la
cual es 16 veces superior a la alta definición y 75 veces
superior al sistema PAL. En noviembre de 2016 se
añadió soporte para subir y reproducir videos en HDR.31
En junio de 2014, YouTube introdujo videos que se
reproducen a 60 fotogramas por segundo, con el fin de
reproducir videojuegos con una velocidad de
fotogramas comparable a las tarjetas gráficas de gama
alta.3233 Los videos se reproducen con una resolución
de 720p o superior.34 Los videos de YouTube están
disponibles en una variedad de niveles de calidad. Los
antiguos nombres de calidad estándar (SQ), alta calidad
(HQ) y alta definición (HD) han sido reemplazados por
valores numéricos que representan la resolución vertical
del vídeo. La secuencia de vídeo predeterminada se
codifica en el formato VP9 con audio Opus estéreo; Si
no se admite VP9 / WebM en el navegador/dispositivo o
si se está usando Windows XP, entonces se utilizará
vídeo H.264/MPEG-4 AVC con audio AAC estéreo.35
En enero de 2015, Google anunció que YouTube
permitirá la subida de videos en 360°. Desde el 13 de
marzo de 2015, los videos en 360° se pueden ver en
Google Cardboard, una plataforma de realidad virtual.
YouTube 360° también se puede ver desde todas las
demás plataformas de realidad virtual.36
Formatos de archivo admitidos
.MOV .MPEG4 .MP4 .AVI .WMV .MPEGPS .FLV .3GPP
.WebM37
Restricción de copias
Para evitar copias de los archivos de vídeo, en un
principio estos fueron distribuidos en formato flash
(FLV), propiedad de la empresa Adobe Flash, que impide
a los usuarios hacer copias digitales fácilmente. Aun así,
diversos programadores han elaborado herramientas
que permiten, sin permiso de YouTube, la descarga de
los vídeos alojados en el sitio. Hoy en día existe una
infinidad de aplicaciones para acceder a la descarga de
los vídeos de YouTube; además, ya existe una
herramienta para bajar videos en alta definición.
El navegador Google Chrome ha aplicado una restricción
por la cual las extensiones de la Chrome Web Store para
bajar videos, no permiten hacerlo con los de YouTube.38
Copyright
YouTube ha cambiado profundamente la definición de
derechos de autor en vídeos, ya que antes de 2005 sólo
se aplicaban a música compartida por P2P. Gran parte
de los vídeos que los usuarios publican en YouTube
tienen música o imágenes con copyright, pero la
compañía sólo los retira si es requerido por el
propietario de los derechos de autor. Al retirarse los
vídeos la cuenta del usuario que los publicó es
suspendida después de recibir, cuando menos, tres
advertencias. Adicionalmente, las productoras de
música pueden solicitar la anulación de las pistas de
audio de los vídeos que incluyen bandas sonoras o
música que no fue licenciada para su inclusión,
quedando totalmente sin sonido.39
En el año 2017, las penalidades son las siguientes:
En caso que una transmisión en vivo actual o
archivada se quite por incumplir los derechos de
autor, se restringirá el acceso a la función para
transmitir en vivo por noventa días.
En caso que el usuario reciba tres advertencias por
incumplimiento, se rescindirá la cuenta, se quitarán
todos los videos que de la misma, y no podrá crear
cuentas nuevas.
Las advertencias por incumplimiento se hacen cuando
el propietario de los derechos de autor envía una
solicitud legal completa y válida.40
Disputa con Viacom
Uno de los casos más conocidos ocurrió en febrero de
2007 ante la exigencia por parte de Viacom, casa matriz
de la cadena MTV, y los canales infantiles Nickelodeon,
Nick Jr., Nick Jr. 2 y Noggin, de retirar de su sitio más de
100 000 vídeos, al no poder llegar a un acuerdo
económico con la compañía para que los usuarios
pudieran utilizar el contenido de Viacom.41 La disputa
entre las dos compañías se agravó el 13 de marzo,
cuando Viacom anunció públicamente que había
demandado a YouTube y a su propietaria Google Inc. por
presunta violación de los derechos de autor por un
monto que supera los 1000 millones de dólares en
daños.42 Como respuesta, algunos usuarios de
YouTube subieron vídeos al sitio exhortando a otros
usuarios a boicotear a Viacom.43 Google respondió
argumentando que sí respetan los derechos de autor y
que no permitirá que la demanda legal se transforme en
una distracción del continuo y sólido crecimiento de
YouTube.44
YouTube como plataforma publicitaria
Desde mayo de 2007, en YouTube empezaron a aparecer
vídeos publicitarios de 15 a 30 segundos y otro en estilo
pop-up para toda empresa que lo solicite. El tipo de
anuncio mostrado al usuario es completamente
aleatorio y sin relación con el contenido del que vídeo
que buscaba ver o las palabras clave usadas en la
búsqueda.
Para el uploader estándar de Youtube, puede desactivar
que sus propios vídeos tengan anuncios de terceros, de
cualquier forma ningún uploader de YouTube recibe
remuneraciónpor mantener anuncios en sus vídeos.45
Sin embargo, en los últimos años (2010-actualidad), los
uploaders pueden elegir si quieren insertar anuncios o
no en su vídeo publicado, y de que tipo (en varias partes
del video, uno sólo al iniciar la reproducción, un
banner...), y en función de factores como el número de
visualizaciones, tipo de contenido, etc... Reciben cierta
remuneración por parte de Google.46
Como complemento de la televisión
Algunos canales estadounidenses han creado
webisodes, breves capítulos de cinco minutos de
duración cuya trama está relacionada con la serie
original de la cual se derivan, que son distribuidos
exclusivamente en Internet. Estos episodios surgieron
como un método alternativo, tras la huelga de guionistas
en Hollywood de 2007-2008, para llegar a una audiencia
verdaderamente global. Un ejemplo de estos cortos es
Qué vida más triste, que fue transmitido después por el
canal de España La Sexta.47 Además, se ha
comprobado que YouTube no roba audiencia a la
televisión, de hecho la estimula,[cita requerida] ya que,
aunque un programa no tenga éxito en su país de origen,
es posible que en YouTube sí lo tenga, al atraer más
público del esperado. Esto ha sucedido con el programa
español Muchachada Nui, que ya es ampliamente
conocido en Latinoamérica.48
Youtube Red
YouTube Red es el servicio de suscripción premium de
YouTube. Ofrece streaming sin publicidad, acceso a
contenidos exclusivos, reproducción de vídeo en
segundo plano y acceso fuera de línea en dispositivos
móviles.49 YouTube Red se anunció originalmente el 12
de noviembre de 2014 como "Music Key", un servicio de
streaming de música por suscripción, y tenía la intención
de integrarse y reemplazar el servicio "All Access"
existente de Google Play Music.5051 El 28 de octubre de
2015, el servicio se volvió a lanzar como YouTube Red,
ofreciendo streaming sin publicidad en todos los videos,
así como acceso a contenido original y exclusivo.52
Pagos por derechos de autor
Según la página de estadísticas de YouTube en el mes
de julio de 2016 la empresa había pagado la suma de
2000 millones de dólares a los titulares de los derechos
de autor que habían decidido monetizar reclamos desde
que fue lanzado Content ID en el año 2007.2
Impacto en la cultura popular y sociedad
YouTube ha tenido un gran impacto en la cultura
popular; prueba de ello es haber obtenido el premio al
«Invento del año», otorgado por la revista Time en
noviembre de 2006.53 El sitio se convirtió en un medio
de difusión tan popular para la difusión de fenómenos
de Internet de todo tipo que incluso ha sido utilizado por
importantes personalidades como Tony Blair, quien
publicó allí su mensaje de felicitación al presidente de
Francia, Nicolas Sarkozy, cuando éste resultó elegido.54
El sitio es también un medio de promoción para artistas
y políticos en campaña electoral que cuentan con un
espacio o canal (channel) propio; tal es el caso de
Citizen Tube, un espacio donde los políticos en campaña
para las elecciones de Estados Unidos exponen en blogs
de vídeo sus propuestas y comentarios. De igual
manera, la Comisión Europea puso en marcha un
espacio dentro de YouTube para comunicarse con los
ciudadanos.55
YouTube promocionando un debate político.
Si bien las temáticas son muy variadas y diversas, varias
tendencias positivas se han mostrado en los vídeos y
listas de comentarios donde los usuarios vierten las
impresiones del vídeo visto. Por ejemplo, se encuentran
los vídeos con imágenes de ciudades y provincias, que
en su mayor parte muestran fraternidad entre personas
y pueblos; cursos diversos con fines educativos,
técnicos y científicos, como la muestra de vídeos
médicos de operaciones y autopsias, muestras
gastronómicas, archivos históricos, comedia o
entretenimiento en general. Sin embargo, la pornografía
no es tolerada, aunque a raíz de ésta prohibición un
grupo de personas ajenas a YouTube creó YouPorn.
El sitio ha sido criticado por haber alojado vídeos sobre
peleas entre miembros de distintas razas en Estados
Unidos[cita requerida] o entre escolares, donde incluso
aparecen niñas golpeándose.56 Algunos de estos
vídeos han sido realizados exclusivamente para su
difusión por YouTube.[cita requerida] Además, han
aparecido vídeos relacionados con el terrorismo y
vídeos de webcam donde se exponen poses eróticas sin
llegar a la desnudez. Algunas de estas últimas imágenes
han sido expuestas sin la autorización de las personas
filmadas. Dentro de esta categoría se encuentran los
vídeos voyeur, usualmente captados por teléfonos
móviles con vídeo integrado, que muestran imágenes de
grabaciones de partes íntimas de mujeres u hombres en
el transporte público o en la vía pública. Estos vídeos
son filmados sin autorización de las personas
filmadas.[cita requerida]
Por otro lado, las temáticas negativas en cuanto a
xenofobia, ideologías políticas y religiosas extremistas,
discriminación, maltrato animal entre otros son muy
comunes en YouTube.[cita requerida] Por ejemplo, en el
mundo han surgido vídeos racistas denigrando e
insultando las características y costumbres de las
personas de otras razas u otros países.[cita requerida]
Un estudio reciente demostró que las situaciones de
vulnerabilidad que acaecen tanto en la creación como en
el consumo de material audiovisual por parte de los
adolescentes en la plataforma se centran en cuatro
grandes ejes temáticos: sexo, drogas, acoso y
embarazo.57. En respuesta, YouTube facilitó un sistema
para denunciar videos inapropiados y usuarios abusivos.
Si el caso es relativamente leve, el video es bloqueado
para que la gente deba comprobar que es mayor de
edad antes de verlo. Si el caso es más grave o
reincidente, se procede a borrar el video y tomar
medidas más drásticas contra el infractor.58
ControversiasVídeos virales
Otra característica del portal es que se ha ostentado
como plataforma principal para la difusión de vídeos
virales. Estos se refieren a un sinfín de vídeos, ya sean
extraídos de diversos medios como la TV, vídeos de
promoción musical o videoaficionados, a los cuales
particularmente el público expectante encuentra alguna
característica generalmente cómica, por lo cual
comienzan a difundirlos a través de blogs u otras redes
sociales para que sean vistos por más gente. Muchos de
estos vídeos son totalmente espontáneos y no fueron
hechos con el objetivo original de ser vídeos virales, ni
tampoco para fines de lucro posterior,59 los propios
espectadores son los que hacen que estos tengan ese
comportamiento de difusión en la Red. Un ejemplo es la
fama obtenida por una maquillista de la televisión
peruana llamada Judith Bustos, conocida como La
Tigresa del Oriente, quien con la exposición de un
videoclip Nuevo amanecer fue un vídeo viral que
respondió a un sinfín de reacciones diversas, entre ellas
considerar su presentación como un camp o también un
kitsch,60 esto es debido a que la pequeña empresa que
lo produjo, Éxitos del mundo, que surgió de la bancarrota
de toda la industria fonográfica del Perú a mediados de
los años 90,61 contaba con recursos limitados para su
producción, no utilizando los que generalmente tiene
una compañía de televisión. Un ejemplo similar y que
generalmente caracteriza a un video viral es el que
representa al actor indio Chiranjeevi, que durante 1985
filma una escena en que utiliza elementos parecidos al
videoclip de Michael JacksonThriller, que en sí no fue
una parodia, sino una expresión de la popularidad del
cantante estadounidense en la comunidad india
plasmada en un video. Lo que lo hizo vídeo viral fue la
extracción de dicha escena de la película para la que fue
hecha y su posterior exhibición en YouTube, lo que
espectadores de todo el mundo percibieron como una
parodia, que no lo era. El impacto de un vídeo viral es
totalmente incierto y con diversos destinos, pero llega a
ser tal que da pie a crear todo tipo de parodias incluso
hechas por los canales de televisión nacional del
mundo,62 llegando también al lucro, esto también
incluso es reflejado en la publicidad de algunos
países.63 Hay algunas excepciones donde algunos
vídeos son editados con el propósito de ser vídeos
virales.
Usos colaterales no esperados
El servicio del sitio también ha sido utilizado por el
crimen organizado, como los cárteles del narcotráfico,
como herramienta de propaganda.[cita requerida]
Siendo el caso más común los videos musicales.
Además, estas organizaciones criminales han publicado
imágenes de sus crímenes para aumentar el impacto
mediático y atemorizar a sus rivales aunque los videos
son retirados de inmediato por los administradores.64
Un caso inédito se dio durante el secuestro del ganadero
mexicano Luis Fierro, del estado mexicano de Guerrero.
Un vídeo grabado por sus captores fue alojado al sitio;
sin embargo, su acceso fue restringido con una clave. En
el video se amenazaba para el pago del rescate.65 Otro
problema relacionado es el atractivo que YouTube
representa para los grupos terroristas que igualmente lo
usan para propósitos de propaganda y manipulación. En
respuesta Google afirma que continuamente está
mejorando sus mecanismos de monitoreo y filtrado y
exhorta a sus usuarios a reportar cualquier problema en
el sistema.66
YouTube también sirvió para alojar un video filmado por
el surcoreano Cho Seung-Hui, que contenía un discurso
suyo. Este video fue alojado poco antes de que Cho
ejecutara la masacre de Virginia Tech en Estados
Unidos.[cita requerida]
El servicio de YouTube tiene una herramienta de
denuncia por infracciones que incumplan las
condiciones de uso. Entre estas destaca la prohibición
de alojar material que promueva el odio racial y el
discurso de incitación al odio. De esta manera, los
usuarios pueden enviar una solicitud de revisión al vídeo
en cuestión, así como críticas y comentarios del mismo,
para que sean evaluados, y de proceder, sean retirados.
En otros ámbitos, el sitio ha servido como plataforma
inusual para dar a conocer talentos desconocidos. un
ejemplo, el más famoso a nivel mundial lo representa
Susan Boyle. Gracias a que un video extraído del
programa británico Britain's Got Talent le permitió
hacerse conocida a nivel mundial, su talento como
intérprete le fue valorado y es así que una completa
desconocida tanto en su país como en el resto del
mundo tomara gran notoriedad al descubrirse un talento
reconocido por el público.67
Actualizaciones
A lo largo de su historia, YouTube ha publicado
actualizaciones a varias de sus funciones con el objetivo
de ofrecer una mejor experiencia a sus usuarios. Las
últimas se impusieron en enero de 2010, introduciendo
variadas opciones adicionales, aunque lo más notable
fue su cambio de diseño: la opción impuesta más
significativa fue el compartimiento de vídeos mediante
nuevas redes sociales que antes no existían, como
Tuenti, Vkontakte, Tumblr u otros servicios, como
Blogger.
También, la bandeja de entrada ahora permite ver todos
los mensajes en una vista, y la carga de estos es mucho
más rápida que antaño. Así, ahora se pueden ver los
comentarios a los vídeos, las respuestas a los mensajes
privados y las invitaciones en una misma página.
También se pueden enviar mensajes a numerosos
destinatarios.
La gestión de vídeo ha recibido una importante mejora y
entre los cambios más notables salta a simple vista una
interfaz más ligera, con menús expandibles, información
más concisa y más opciones de edición en pantalla. El
manejo de contactos y suscripciones también ha sido
actualizado, y ahora se pueden organizar de manera
más sencilla y rápida. Se pueden, por ejemplo, visualizar
los datos de más de un contacto con sólo marcarlos, o
aplicarles etiquetas y organizarlos en grupos, todo de
manera muy sencilla.
La descarga de canciones no solo se podrán hacer a
partir de iTunes, sino también de distintos servicios
impuestos por el propio autor del vídeo. Esta opción es
una mejora, ya que estaba disponible desde 2008.
En septiembre de 2011 se eliminó la restricción de límite
de video a 15 minutos,68 aunque solo para algunas
cuentas.69 Esta característica se pierde
automáticamente si el usuario infringe en las políticas a
la comunidad y/o haya hecho violaciones de derechos
de autor y/o haya tenido reclamaciones de ID de
contenido.
Localización
El 19 de junio de 2007 el consejero delegado de Google,
Eric E. Schmidt realiza en París la publicación del nuevo
sistema de localización.70 La interfaz del sitio está
desde entonces disponible en Estados Unidos y en
versiones para 104 países:
[[PASTING TABLES IS NOT SUPPORTED]]
La interfaz de YouTube sugiere qué versión debería
elegirse basándose en la dirección IP del usuario. Hay
algunos videos que no están disponibles en ciertos
países debido a restricciones de derechos de autor o por
incluir contenido inapropiado.81
YouTube políglota
El sitio YouTube tiene como idioma predeterminado el
inglés, pero está disponible en un total de 76 idiomas:2
Bloqueos, censura y vigilancia
En total, por lo menos 24 países han bloqueado YouTube
en el pasado, entre los que se encuentran Arabia
Saudita, Bangladés, la República Popular China,
Pakistán, Tailandia y Turquía.82 En el Reino Unido y
Alemania, YouTube ha decidido bloquear los videos
musicales en el pasado para evitar problemas con las
sociedades de derechos de autor.8384 En el marco de
las filtraciones sobre vigilancia mundial de 2013, un
documento de la agencia de inteligencia británica GCHQ
fechado en agosto de 2012 proporcionó detalles sobre
un programa de vigilancia llamado Squeaky Dolphin, que
permite al GCHQ un amplio seguimiento y en tiempo real
de las distintas características de páginas y redes
sociales, como visitas a vídeos de YouTube, todo sin
consentimiento o conocimiento de las empresas que
prestan estos servicios. Squeaky Dolphin permite reunir,
analizar y utilizar datos en tiempo real obtenidos de
YouTube con fines analíticos. El programa es capaz de
recoger direcciones de más de 1000 millones de vídeos
vistos a diario, así como datos de usuarios85 (véase
revelaciones de Edward Snowden). En Corea del Norte
no existe el acceso a YouTube porque la censura a
Internet es total, y en Eritrea es casi imposible.86
República Popular China
Los usuarios de Internet en la República Popular China
han presentado problemas para acceder a YouTube en
un par de ocasiones. Durante los disturbios en el Tíbet
de 2008YouTube fue bloqueada por el Gobierno.82
Además, el 3 de marzo de 2009 se reportó que YouTube
fue bloqueado de nuevo.87 Ese mismo mes, entre el 23
y el 24, Google comunicó que el tráfico de Internet desde
China había bajado considerablemente. Aunque el
Gobierno chino no aclaró si había bloqueado o no el
sitio,82 los problemas de acceso experimentados por
los usuarios chinos coincidieron con la aparición de un
video donde aparecía un soldado golpeando
mortalmente a un protestante tibetano. De acuerdo a la
agencia de noticias gubernamental Xinhua, el video fue
fabricado por miembros del gobierno en el exilio
tibetano.88 Según el diario brasileño O Globo, para el 30
de marzo los usuarios chinos ya podían acceder sin
problemas a YouTube89 Posteriormente, YouTube sería
reemplazado en China por equivalentes locales como
iQiyi, que están más acordes a la cultura y los
lineamientos oficiales de este país.
Turquía
Para inicios de marzo de 2009 YouTube había sido
bloqueado en once ocasiones en Turquía.90 La mayoría
de las veces esta acción respondía a la aparición de
videos donde se mofaban del político Mustafa Kemal
Atatürk, considerado el padre de la nación turca.90 Los
conflictos entre la nación euroasiática y YouTube
comenzaron en marzo de 2007, cuando Turquía bloqueó
el popular sitio de videos por uno en concreto, de origen
griego, que violaba la ley turca, ya que calumniaba a
Atatürk.91 Aunque YouTube eliminó el video, el Gobierno
turco luego solicitó la retirada de otros videos que
violaban su ley, entre los que destacaban videos creados
por las milicias kurdas. Desde entonces, de acuerdo con
los diarios turcos, se inició una guerra virtual en
YouTube entre griegos y turcos, donde cada bando
cargaba videos en el sitio cuyo único objetivo era
insultar la historia o cultura del bando opuesto.92
YouTube eliminó los videos que violaban las normas del
sitio y bloqueó los videos que violaban leyes turcas para
evitar que las direcciones IP de origen turco pudiesen
accederlos.91 Sin embargo, en junio de 2008 un fiscal
turco solicitó a YouTube bloquear esos videos a nivel
mundial, alegando prevenir que turcos en el extranjero
los visualizasen. Ante la negativa de YouTube a esta
nueva petición, se inició un nuevo bloqueo que se
extendió por lo menos hasta noviembre del mismo
año.91
Alemania
A inicios de abril de 2009 YouTube dejó de transmitir
videos en Alemania, al ser incapaz de alcanzar un
acuerdo con GEMA, la mayor sociedad de derechos de
autor alemana.84 YouTube y GEMA tenían un acuerdo
que expiró en marzo de 2009, pero no lo renovaron ya
que, según portavoces de YouTube, GEMA estaba
solicitando tarifas más elevadas, incluso mayores que
las que reclaman su equivalente británica.84 Este
autobloqueo representa la pérdida de 13 millones de
visitantes germanos al mes, que representan un 4,33 %
de los visitantes mundiales de YouTube. Actualmente, la
productora de la película alemana Der Untergang pidió a
YouTube retirar las miles de parodias de su película.93
Tailandia
A finales de 2006 el Gobierno tailandés bloqueó el
acceso al sitio como respuesta a la aparición de videos
donde se insultaba al Rey de Tailandia, Bhumibol
Adulyadej, considerado un crimen en ese país. El
Gobierno tailandés entregó a Google una lista de veinte
videos que consideraban ofensivos, exigiendo su
retirada para levantar el bloqueo.82 Los ejecutivos de
Google bloquearon los videos que violaban la ley
tailandesa, que contaba con amplio apoyo popular, para
evitar que direcciones IP tailandesas accediesen a
ellos.82 Una serie de videos que no violaban la ley pero
que eran considerados ofensivos por el Gobierno no
fueron bloqueados, solución que el Gobierno de
Tailandia aceptó.[cita requerida]
Transmisión en directo
El 25 de octubre de 2009 se transmitió en directo un
concierto del U2 360° Tour, gira de la banda irlandesa U2,
desde el Estadio Rose Bowl, en California, Estados
Unidos. Fue el primer concierto completo transmitido en
directo por YouTube.94 El 1 de diciembre de 2009 se
transmitió en directo el concierto de la artista Alicia
Keys desde Nueva York, en Estados Unidos. Es el
segundo concierto completo transmitido en directo por
YouTube.95 El 22 de enero de 2010 se transmitió en
directo un concierto para la esperanza de Haitítambién
desde Nueva York. Estaban invitados varios artistas,
como Justin Timberlake, Jay-Z, Rihanna, Shakira, U2,
Coldplay, Taylor Swift y otros.
El 27 de enero de 2011 YouTube transmitió el estreno de
la película Life in a Day del director Kevin McDonald,
película generada por la contribución en video de miles
de usuarios en YouTube.
Desde el 1 de julio de 2011 comenzó transmisiones de
los partidos en vivo de la Copa América 2011. Para el 5
de julio, el canal CopaAmerica tenía 61 761
subscriptores, sin embargo, esta transmisión por
razones desconocidas fue bloqueada en muchos
países.96
El 7 de abril de 2013 Youtube emitió en Directo el Pre-
show de la SuperBowl de la WWE WrestleMania 29.
Youtube Partners
A partir del año 2011 se comenzó el proyecto "Youtube
Partner", el cual consiste en otorgar ingresos reales por
medio de Google Adsense o "networks" que son
empresas que pagan los usuarios con mayor audiencia
de Youtube, referidos como youtubers o youtubero97 (en
minúsculas ambas, la primera en cursiva al ser un
anglicismo). Sólo empresas de medios con domicilio en
Estados Unidos con representación en YouTube son
candidatos para ser networks. Esta característica ha
permitido que las empresas de medios y usuarios
independientes que reciben grandes cantidades de
reproducciones sean capaces de recibir un ingreso
económico, con el fin de mejorar la calidad del trabajo.
A los que forman parte de este contrato se les da la
opción de poner anuncios ya sea dentro del vídeo o a un
costado del mismo, con la finalidad de obtener ingresos
por parte de los anunciantes que invierten por publicidad
dentro de los vídeos almacenados en esta página web.
YouTube Premium
El 12 de noviembre de 2014, se anunció de manera
oficial YouTube Music Key, el servicio de streaming por
suscripción del portal de videos. Music Key ofrece la
posibilidad de obtener streaming de música
directamente desde YouTube sin publicidad haciendo
uso de su propia aplicación, además permite realizar la
reproducción en segundo plano, ver contenido de
manera offline, realizar listas personalizadas y recibir
recomendaciones.98
Se lanzó inicialmente como Youtube Red, y
posteriormente se cambió el nombre por YouTube
Premium. Ofrece 3 meses de servicio gratuito y el pago
mensual de 9,99 $ en USA y 9,99 € en Europa. La
suscripción también incluye el servicio de Google Play
Music.
SlideShare es un sitio web 2.0 de espacio web de
dispositivos que ofrece a los usuarios la posibilidad de
subir y compartir en público o en privado ; documentos
en Adobe PDF (.pdf), Microsoft Word (.doc,.docx y.rtf) y
OpenOffice (.odt) y la mayoría de documentos de texto
sin formato (.txt),1 e incluso algunos formatos de audio
y vídeo.2
Originalmente el sitio web estaba destinado para los
empleados del ámbito empresarial con la intención de
que compartieran con más facilidad diapositivas entre
ellos, pero luego el público objetivo se amplió para
convertirse también en un entretenimiento.
Historia[editar]
SlideShare fue lanzado el 4 de octubre de 2006.3 Este
sitio web se considera similar a YouTube, pero de uso
orientado a las presentaciones de series de
diapositivas.4 El 4 de mayo de 2012 fue adquirida por
LinkedIn.
En agosto de 2015 como muestra del compromiso de
LinkedIn de apostar por una mayor integración con
SlideShare se produjo un rebranding pasándose a llamar
LinkedInSlideShare, con la intención de tratar de
profesionalizar y evolucionar la web. Como muestra de
esta nueva estrategia de profesionalización e
integración de LinkedIn con SlideShare van a ir
presentando una seria de aplicaciones y mejoras de su
sitio web, que comprenderán desde la nueva
herramienta Clipping hasta opciones para una mejor
organización, formas de posicionamiento personal de
los usuarios o búsqueda de expertos en categorías que
interesen al propio usuario, así como otras herramientas
personalizadas. Según la compañía tiene 70 millones de
usuarios mensuales activos y un total de aproximado de
400 mil presentaciones añadidas cada mes. El
contenido en el sitio web casi se ha doblado desde la
unión con LinkedIn, pasando de los 10 millones en 2013
a 18 millones actualmente. 5
los siguientes servicios son basados con la siguiente
información:
Servicios de SlideShare[editar]
SlideShare ha desarrollado servicios adicionales que
complementan su funcionalidad:
Zipcasts hd6[editar]
En febrero de 2011 SlideShare añadió una función
llamada Zipcasts. Zipcasts es un sistema de
conferencia a través de web social que permite a los
presentadores transmitir una señal de audio / vídeo
mientras se conduce la presentación a través de
Internet. Zipcasts también permite a los usuarios
comunicarse durante la presentación a través de una
función de chat integrada.
Zipcasts no soporta compartir la pantalla con el
presentador, una característica disponible en los
servicios competidores de pago como WebEx y
GoToMeeting. Además, los presentadores que usan
Zipcasts no son capaces de controlar el flujo de la
presentación, permitiendo a los espectadores navegar
hacia atrás y adelante a través de las propias láminas.
Clipping7[editar]
En agosto de 2015, LinkedIn SlideShare lanza Clipping,
que permite guardar diapositivas individuales de
presentaciones en tu propia colección (Clipboard). Se
puede utilizar como marcador, para coleccionar y
organizar las diapositivas a las que quieras volver a
acceder en cualquier otro momento.
Slidecast8[editar]
Permite añadir voz o música a una presentación
slideshare, logrando una sincronización del archivo
sonoro con las dispositivas.
Recientemente ha incorporado la posibilidad de integrar
en una presentación ya subida a SlideShare, clips de
vídeo previamente publicados en YouTube.
Wikipedia es una enciclopedia libre,nota 2 políglota y
editada de manera colaborativa. Es administrada por la
Fundación Wikimedia, una organización sin ánimo de
lucro cuya financiación está basada en donaciones. Sus
más de 50 millones de artículos en 300 idiomas han
sido redactados en conjunto por voluntarios de todo el
mundo,5 lo que suma más de 2000 millones de
ediciones, y permite que cualquier persona pueda
sumarse al proyecto6 para editarlos, a menos que la
página se encuentre protegida contra vandalismos para
evitar problemas y/o trifulcas.
Fue creada el 15 de enero de 2001 por Jimmy Wales y
Larry Sanger7 y es la mayor y más popular obra de
consulta en Internet.8910 Desde su fundación, Wikipedia
no solo ha ganado en popularidad —se encuentra entre
los 10 sitios web más populares del mundo—,1112 sino
que su éxito ha propiciado la aparición de proyectos
hermanos: Wikcionario, Wikilibros, Wikiversidad,
Wikiquote, Wikinoticias, Wikisource, Wikiespecies y
Wikiviajes.
No obstante, tiene numerosos detractores. Entre ellos,
algunos la han acusado de parcialidad sistémica y de
inconsistencias,13 con críticas centradas sobre lo que
algunos, como Larry Sanger, han convenido en llamar
«antielitismo»,14 y que no es otra cosa que la política
del proyecto enciclopédico de favorecer el consenso
sobre las credenciales en su proceso editorial.15 Otras
críticas han estado centradas en su susceptibilidad de
ser vandalizada y en la aparición de información espuria
o falta de verificación,16 aunque estudios eruditos
sugieren que el vandalismo en general es deshecho con
prontitud.1718
Hay controversia sobre su fiabilidad y precisión.19 La
revista científica Nature declaró en diciembre de 2005
que la Wikipedia en inglés era casi tan exacta en
artículos científicos como la Encyclopaedia
Britannica.20 El estudio se realizó comparando 42
artículos de ambas obras por un comité de expertos sin
que estos supieran de cuál de las dos enciclopedias
provenían. El resultado fue que Wikipedia tenía casi el
mismo nivel de precisión que la Enciclopedia Británica,
pero tenía un promedio de un error más por artículo.21
Por otro lado, y según consta en un reportaje publicado
en junio de 2009 por el periódico español El País, un
estudio de 2007, dirigido por el periodista francés Pierre
Assouline y realizado por un grupo de alumnos del
máster de Periodismo del Instituto de Estudios Políticos
de París para analizar la fiabilidad del proyecto, se
materializó en el libro La revolución Wikipedia (Alianza
Editorial) cuyas conclusiones eran bastante críticas.
Entre otras cosas, afirmaba que el estudio de Nature fue
poco estricto y sesgado, así como que, según su propio
estudio, la Britannica continuaba siendo un 24 % más
fiable que la Wikipedia.22
De las 300 ediciones, quince superan el 1 000 000 de
artículos: inglés, cebuano, sueco, alemán, francés,
neerlandés, ruso, italiano, español, polaco, samareño,
vietnamita, japonés, chino y portugués.
La versión en alemán ha sido distribuida en DVD-ROM, y
se tiene la intención de hacer una versión inglesa en
DVD con más de 2000 artículos.23 Muchas de sus
ediciones han sido replicadas a través de Internet
—mediante «espejos»— y han dado origen a
enciclopedias derivadas —bifurcaciones— en otros sitios
web.24
Etimología
La palabra Wikipedia, nombre propio acuñado por Larry
Sanger a principios de 2001, es la contracción de wiki,
una tecnología para crear sitios web colaborativos,
procedente a su vez de wikiwiki, 'rápido' en hawaiano,25
y encyclopedia, 'enciclopedia' en inglés.26 Este nombre
se pronuncia en inglés como [ˌwɪkɨˈpiːdi.ə] (?·i) o
AFI: [ˌwɪkiˈpiːdi.ə] (AFI).
La Wikipedia en español, creada meses después, heredó
el nombre. Tras una votación realizada entre septiembre
y noviembre de 2003 por parte de los usuarios de esta,
se decidió seguir con el mismo término. En la votación
se barajaron los siguientes nombres —por orden de
popularidad—: Librepedia, Huiquipedia, Uiquipedia,
Güiquipedia, Viquipedia, Ñiquipedia, Velozpedia,
Limonpedia, Güisquipedia y Velocipedia.27
Otros que también usaron el nombre Wikipedia fueron
los idiomas —ordenados según el ISO 639-3—: alemán,
bretón, corso, danés, euskera, filipino, finlandés, gallego,
neerlandés, indonesio, islandés, italiano, nauruano,
noruego, polaco, rumano, siciliano, somalí, suajili y
sueco.
Otras grafías para el título
Esta es una lista de las grafías alternativas usadas para
nombrar a Wikipedia en las diferentes ediciones:28
Bichipedia - Sardo.
Biquipedia - Aragonés.
Güiquipeya - Extremeño.
Uichipedia - Arrumano.
Uiquipedia - Asturiano.
Uikipedias - Lojban.
Vichipedia - Romanche.
Vichipedie - Friulano.
Vicipaedia - Latín.
Vicipéid - Irlandés.
Vikipedi - Turco.
Vikipedia/‫ויקיפידיה‬ - Judeo-español.
Vikipedio - Esperanto.
Vikipedija - Lituano.
Vikipēdija - Letón.
Vikipediya *1 *2 *3 - Azerí, tártaro de Crimea, uzbeko.
Vikipeedia - Estonio.
Vikipeediä - Võro.
Vikipetã - Guaraní.
Vikipedėjė - Samogitiano.
Vikipidiya - Romaní.
Viquipèdia - Catalán.
Vitipetia - Tahitiano.
Vouiquipèdia - Franco-provenzal.
Wicipǣdia/Ƿicipǣdia - Anglosajón.
Wicipedia - Galés.
Wikipaedia - Escocés.
Wikipédia *4 *5 *6 *7 - Francés, eslovaco, húngaro,
portugués.
Википедия - Tártaro.
Wikipedie - *8 *9 Checo, novial.
Wikipediija - Sami septentrional.
Wikipedijô - Casubio.
Wikipedio - Ido.
Վիքիպեդիա - Armenio.
‫وﻳﻜﻴﺒﻴﺪﻳﺎ‬ - Árabe.
วิกิพีเดีย - Tailandés.
ウィキペディア - Japonés.
Huiquipedia - Náhuatl.
Oiquipedià - Occitano.
‘O Wikipikia - Hawaiano.
uikiPEdi, as - Lojban.
Uicchipèdie - Tarantino.
Wikiibíídiiya - Navajo.
Wikipedi - Bambara.
Wikipedija*10 *11 *12 *13 *14 - Bosnio, croata,
esloveno, maltés, serbocroata.
Wikipediya - Zazaki.
Wikipidiya*15 *16 - Aimara, quechua.
Wîkîpediya - Kurdo.
Wïkïpêdïyäa - Sango.
Wikipedy - Frisón.
Wikipedyjo - Silesio.
Wikipeediya - Fula.
Wikipidya*16 *17 - Bicolano central, cabilio.
Wikkipedija - Fráncico ripuario.
Wéijībǎikē / 维基百科 - Chino.
ᓀᐦᐃᔭᐧᐁᒧᐧᐃᓐ/Uikuepitiu - Cri.
Βικιπαίδεια*18 *19 - Griego, póntico.
Википеди*20 *21 - Chuvacho, osético.
Википедия - Ruso.
Википедиесь - Moksha.
Википедиja*22 *23 - Macedonio, serbio.
Вікіпедія - Ucraniano.
Уикипедия - Búlgaro.
‫ויקיפדיה‬ - Hebreo.
‫ויקיפעדיע‬ - Yiddish.
‫وﯾﮑﯽﭘﺪﯾﺎ‬ - Persa.
ვიკიპედია - Georgiano.
‫وﯾـﮑـ‬5*26 - Hindi, maratí, sánscrito.
����� - Telugú.
维基百科 - Cantonés.
Nota: Cada asterisco (*) denota una referencia
respectiva por la múltiple adopción lingüística.
Características
Un mundo donde cada persona pueda compartir
libremente en la suma de todo conocimiento.
Existen tres características esenciales del proyecto
Wikipedia que definen en conjunto su función en la web.
El lema «La enciclopedia libre que todos pueden editar»
explica los tres principios:29
Es una enciclopedia, entendida como soporte que
permite la recopilación, el almacenamiento y la
transmisión de la información de forma estructurada.
Es un wiki, por lo que, con pequeñas excepciones,
puede ser editada por cualquiera.
Es de contenido abierto.
Según su cofundador, Jimmy Wales, el proyecto
constituye «un esfuerzo para crear y distribuir una
enciclopedia libre, de la más alta calidad posible, a cada
persona del planeta, en su idioma», para lograr «un
mundo en el que cada persona del planeta tenga acceso
libre a la suma de todo el saber de la humanidad».30 Se
desarrolla en el sitio Wikipedia.org haciendo uso de un
software wiki —término originalmente usado para el
WikiWikiWeb—.
Edición y contenido
Han existido y existen muchas enciclopedias en línea
que compitieron con Wikipedia, como Microsoft Encarta
y Encyclopædia Britannica; sin embargo, ninguna ha
logrado el mismo éxito que Wikipedia.3132 Pese a su
competición, la enciclopedia ha atraído la atención de
otras tradicionales influidas popularmente.33
Según un estudio realizado por la revista Nature en
2007, «Wikipedia alcanzaba a la Enciclopedia Británica»
en calidad,34 aunque existe controversia sobre este
asunto.3536 Además, sus contenidos están disponibles
en formato impreso.3738
Otro estudio realizado por la Universidad Carnegie
Mellon y Palo Alto Research Center sobre las mayores
categorías de artículos en la Wikipedia en inglés desde
julio de 2006 hasta enero de 2008, arrojó los siguientes
resultados:39
Evolución del número de artículos a lo largo del tiempo
(2001-2010), para los ocho lenguajes con mayor número
de artículos. Destaca la edición en inglés, y se nota un
sostenido crecimiento en todas.
[[PASTING TABLES IS NOT SUPPORTED]]
En 2010, Alison J. Head y Michael B. Eisenberg
publicaron una investigación sobre el uso que dan a la
Wikipedia los estudiantes universitarios. El estudio tuvo
lugar en siete universidades de Estados Unidos, y tenía
como objetivo mostrar con qué frecuencia, motivos y en
qué momento de un trabajo académico, se utiliza esta
enciclopedia. El resultado la posicionó como la sexta
fuente de consulta y la segunda no académica; la
enciclopedia predilecta para obtener un trasfondo
general sobre un tema. Se ubicó por delante de sitios
gubernamentales, compañeros de clase, colecciones
personales de libros, y la Enciclopedia Británica, que
quedó relegada al undécimo puesto (61 %).4041
[[PASTING TABLES IS NOT SUPPORTED]]Interfaz
Para la visualización de artículos, la fundación
Wikimedia rediseñó la interfaz con un tema o tapiz que
se conoce como vector, creado en 2010.4243 Antes de
la actualización, años atrás existía una interfaz clásica
conocida como Monobook con limitadas
características.44 Dentro de la interfaz, existen variedad
de mandos usados para navegar o editar páginas. Por
ejemplo, para buscar, ir a otros enlaces o ampliar
imágenes como otros sitios web. Además, mediante las
pestañas, pueden navegar, interaccionar o colaborar con
otras páginas. Aunque algunas actividades de
mantenimiento, son ocultas para los usuarios no
registrados en el proyecto.
Para editar un artículo se recurre al código wiki en una
caja de texto a través de la pestaña "Editar" que no
siempre está disponible en caso de alguna prevención
contra el vandalismo. Entre sus mandos, no se
asemejan al clásico HTML; por ejemplo para los enlaces
se usan corchetes, signos iguales para los títulos, entre
otros, lo cual puede dar una mala impresión a aquellas
personas que no tengan conocimientos en
Informática.45
Diferencia entre revisiones.
La interfaz de edición de Wikipedia.
Acceso en múltiples idiomas
Portada de Wikipedia en japonés.
En octubre de 2016, Wikipedia abarcaba 284 ediciones
«activas» en distintos idiomas y dialectos.
Cada edición trabaja de forma independiente, no está
obligada a incluir el contenido de otras ediciones, y solo
debe respetar políticas globales tales como la de
mantener un «punto de vista neutral». Sin embargo, se
comparten algunos artículos e imágenes entre las
diversas ediciones de Wikipedia o a través del
repositorio de Wikimedia Commons, y se solicitan
traducciones organizadas de artículos procedentes de
otras ediciones. Los artículos traducidos representan
solamente una pequeña parte del total en cualquiera de
ellas.46
Las cinco ediciones con más artículos son, en orden
descendente, inglés, sueco, neerlandés, alemán y
francés. En enero de 2011, Wikipedia contenía 278
ediciones —268 activas— en varios estados de
desarrollo, que sumaban más de 17 millones de
artículos.5
La lista de idiomas incluye idiomas artificiales como el
esperanto, lenguas indígenas o aborígenes como el
náhuatl, el maya y las lenguas de las islas Andamán, o
lenguas muertas, como el latín, el chino clásico o el
anglosajón.
El 1 de marzo de 2006, la Wikipedia en inglés se
convirtió en la primera en superar el millón de artículos,
seguida el 27 de diciembre de 2009 por la Wikipedia en
alemán, el 21 de septiembre de 2010 por la Wikipedia en
francés, el 17 de diciembre de 2011 por la Wikipedia en
neerlandés, el 22 de enero de 2013 por la Wikipedia en
italiano, el 11 de mayo del mismo año por la Wikipedia
en ruso, el 16 del mismo mes por la Wikipedia en
español, el 15 de junio por la Wikipedia en sueco y el 24
de septiembre por la Wikipedia en polaco. Durante la
primera mitad de 2014, alcanzaron también el millón de
artículos tres ediciones en lenguas asiáticas: la
Wikipedia en vietnamita, la Wikipedia en samareño y la
Wikipedia en cebuano.
La siguiente es una lista de las dieciséis mayores
ediciones ordenadas por número de artículos. Las cifras,
que son referenciadas respectivamente a cada versión,
son actuales.
[[PASTING TABLES IS NOT SUPPORTED]]
Muchas ediciones de Wikipedia —como la sueca, la
neerlandesa y la rusa— utilizan bots para la creación
automática de esbozos, razón por la que el número de
artículos no es necesariamente una referencia válida
con respecto a su estado o calidad.4748 Una
categorización diferente sería la media de tamaño por
artículo; así, una Wikipedia con numerosos artículos de
apenas unos pocos bytes quedaría situada por debajo
de otra con menos entradas pero más trabajadas.
También hay que tener en cuenta que muchas
Wikipedias —como, por ejemplo, la rusa, la japonesa, la
china y la hebrea— usan alfabetos no latinos, silabarios
o sistemas ideográmicos, y ello aumenta el tamaño de
las bases de datos.
Comunidad
Las contribuciones anónimas son menores en
comparación con las contribuciones de los usuarios
registrados.
Algunos proyectos, como el de la Stanford Encyclopedia
of Philosophy, o el de la ahora abandonada Nupedia, se
basan en políticas editoriales tradicionales y de autoría
de artículos tipo «escritura por expertos».
Ocasionalmente aparecen sitios web como h2g2 o
everything2 que siguen unas pautas generales
preestablecidas, donde los artículos solo pueden ser
redactados y controlados por cada persona de forma
individual.49
Contrariamente, proyectos como Wikipedia, Susning.nu
o la Enciclopedia Libre son wikis en los que los artículos
son desarrollados por numerosos autores, y no existe un
criterio de revisión formal. Wikipedia es la enciclopedia
más grande en cuanto a número de artículos o palabras
jamás escrita. Al contrario de lo que sucede con muchas
otras, su contenido está liberado bajo licencias de
contenido abierto.
Wikipedia dispone de un conjunto de políticas y
convenciones que sirven para decidir qué información
debe o no incluirse.50 Estas políticas se utilizan para
resolver disputas relativas a la creación, edición y
borrado de artículos, así como a la transferencia de
estos a un proyecto hermano por no tratarse de
información enciclopédica (véase la sección Fundación
Wikimedia y los proyectos hermanos).
Cultura
La cultura de la sociedad ha variado, según el estado, en
cada versión. En el caso principal, la Wikipedia en
español cualquier persona tiene la posibilidad de crear
un artículo nuevo y casi cualquier visitante puede editar
el contenido, a excepción de los artículos que se
encuentran protegidos. Sin embargo, en la inglesa los
usuarios no registrados no pueden comenzar artículos
desde cero. Wikipedia fue creada con la idea de producir
textos de calidad a partir de la colaboración entre
usuarios, a semejanza de los proyectos de desarrollo de
aplicaciones libres.
Los artículos evolucionan con el paso del tiempo, y esto
es visible en su historial de ediciones. Habitualmente,
una parte de las ediciones son vandálicas —de
contenido no relacionado con Wikipedia o con
información falsa—, y en ocasiones editores con puntos
de vista encontrados producen lo que se conoce como
guerra de ediciones. Esta se produce cuando dos o más
editores entran en un ciclo de reversiones mutuas
debido a disputas causadas por diferencias de opinión
sobre el contenido del artículo. No hay que confundir
vandalismo —que frecuentemente afecta una sola vez a
un artículo o artículos— con guerra de ediciones, la cual
afecta repetidas veces a un mismo artículo en un breve
lapso. Entre los artículos vandalizados frecuentemente
en la edición en español destacan: George W. Bush,
Benedicto XVI o Testigos de Jehová; mientras que
artículos con fuertes guerras de ediciones son Cuba o
Comunidad Valenciana, debido a la disparidad entre las
opiniones de sus redactores.
Cada capítulo de Wikipedia cuenta con un grupo de
personal, encargado en la cooperación. Dentro de esta
lista se mencionan a administradores, cuyas funciones
fundamentales son hacer mantenimiento —tal como
borrar artículos, bloquear vándalos y otras funciones— y
estar al servicio del cumplimiento de las normas que la
rigen. El capítulo con más administradores es la
Wikipedia en inglés, con un total de más de 1600.51
Mascota
Debido a su considerable popularidad, existieron
propuestas de mascotas que representaban a Wikipedia
de una manera no oficial. La primera en aparecer fue la
de Wikípedo, una hormiga trabajadora dedicada al
mantenimiento de sus contribuciones.52 Su popularidad
fue poca.
En 2004, en una votación para ser remplazada o
abandonada, la comunidad eligió a Wikipe-tan, un
personaje tipo OS-tan dibujada por un usuario diseñador
gráfico para un proyecto de anime y manga.53 No
obstante, ha sido criticada por ser sexuada, considerado
ofensivo por partes de la comunidad.545556
Marca corporativa
Las cinco marcas corporativasoficiales utilizadas
anteriormente por Wikipedia, desde su creación hasta
mayo de 2010.
Elemento gráfico usado desde mayo de 2010.
Desde su inicio en 2001, Wikipedia ha utilizado
diferentes marcas corporativas. El elemento común en
todas ellas es una esfera escrita como elemento central,
simbolizando el mundo y el conocimiento.
En 2003 se adoptó por concurso internacional el dibujo
de una esfera incompleta, conocida como globo-
rompecabezas, compuesta por piezas de un
rompecabezas de varios colores, con enlaces en azul
pertenecientes a distintas escrituras del mundo,
simbolizando así la condición de «obra en construcción»
que tiene Wikipedia.57 El diseño que ganó el concurso
internacional sufrió algunas modificaciones antes de ser
aprobado como logo oficial, principalmente la
eliminación del color y el reemplazo de los enlaces por
grafemas de diversas escrituras del mundo.
La denuncia de diversos errores e inconsistencias en los
símbolos incluidos en el globo-rompecabezas y la
posibilidad de diseñar una imagen animada o
fotorrealista impulsó entre diversos editores de
Wikipedia un debate sobre la posibilidad de realizar
modificaciones en el elemento gráfico. Como
consecuencia, y tras la labor realizada a través de una
iniciativa de la Fundación Wikimedia junto a miles de
voluntarios para modificar la interfaz de la enciclopedia,
el dibujo de la globo-rompecabezas fue reemplazado en
2010 por un modelo tridimensional, en el que algunos
símbolos de las piezas de rompecabezas fueron
reemplazados por otros, principalmente aquellos que
constituyen el primer grafema de la palabra "Wikipedia"
en distintas wikipedias que existen en el mundo. Por
añadidura, se cambió la tipografía del elemento
denominativo —«WIKIPEDIA, La enciclopedia libre»—
para usar la fuente abierta Linux Libertine, con
excepción de la W inicial, que se mantiene con la fuente
Hoefler Text y constituye también uno de los símbolos
oficiales.585960
Cada Wikipedia según idioma es autónoma y tiene
facultades para elegir la marca que la identifique. A
partir de 2003 todas han adoptado básicamente la
misma, con el elemento denominativo «Wikipedia, The
free encyclopedia» —«Wikipedia, La enciclopedia libre»—
traducido al idioma en que se escribe cada una. Las
marcas han sido realizadas voluntaria y gratuitamente
por usuarios de Wikipedia, y sus derechos pertenecen a
la Fundación Wikimedia.
Historia
La marca corporativa de Nupedia.
Wales cita el ensayo "El uso del conocimiento en la
sociedad", escrito por el economista y filósofo de la
escuela austriaca y Premio Nobel de Economía Friedrich
Hayek, que leyó cuando era estudiante,61 como
«central» para su pensamiento acerca de «cómo
gestionar el proyecto Wikipedia»62636465 Hayek
argumenta que la información está descentralizada
—cada individuo solo conoce una pequeña fracción de lo
que se conoce colectivamente— y, como resultado, las
decisiones se toman mejor por aquellos con
conocimientos locales, en lugar de por una autoridad
central.6266 Wales reconsideró el ensayo de Hayek en la
década de 1990, mientras estaba leyendo sobre el
movimiento de código abierto, que abogaba por la
distribución gratuita de software libre. Fue
particularmente conmovido por el ensayo "La catedral y
el bazar" escrito por uno de los fundadores del
movimiento, Eric S. Raymond y adaptado más adelante
en un libro. Wales afirmó que ese ensayo «abrió [sus]
ojos a las posibilidades de colaboración masiva».61
En marzo de 2000, Jimmy Wales creó Nupedia, un
proyecto de enciclopedia libre basado en un ambicioso y
exhaustivo proceso de revisión por pares,67 diseñado
para hacer sus artículos de una calidad comparable a la
de las enciclopedias profesionales gracias a la
participación de eruditos –principalmente doctorandos y
académicos—, a los que se proponía colaborar de modo
no remunerado. El proyecto tuvo el apoyo económico de
la empresa Bomis, fundada por Wales y administrada
por este junto con un compañero desde 1996,68 y la
colaboración de Richard Stallman, quien propuso el
cambio a la licencia pública general de GNU, desde la
antigua Nupedia Open Content License.69 Larry Sanger,
doctor en filosofía, que ya conocía anteriormente a
Wales de mantener con él discusiones filosóficas por
Internet, fue contratado por este y se convirtió en
redactor jefe de Nupedia.68
Debido al lento avance del proyecto, en 2001 se creó un
wiki —UseMod— vinculado a Nupedia cuya finalidad
inicial era agilizar la creación de artículos de forma
paralela, antes de que estos pasaran al sistema de
revisión por expertos. Existe cierta polémica entre los
fundadores de Nupedia sobre quién propuso
originalmente la idea de usar un wiki a Jimbo Wales, si
Larry Sanger o bien una tercera persona,70 pero el caso
es que el éxito de aquel «pequeño proyecto paralelo»
—Wikipedia— acabó eclipsando a Nupedia, que dejó de
funcionar en 2003.
El artículo "UuU", creado el 16 de enero de 2001, es
aceptado como el artículo actualmente existente más
antiguo de Wikipedia. Apareció en la Wikipedia en inglés
y así es como puede verse aquella primera edición,
recurriendo al historial.
El proyecto Wikipedia se inició el 15 de enero de 2001. El
artículo más antiguo que puede encontrarse en
Wikipedia es UuU, creado el 16 de enero de 2001 en la
versión inglesa; consistía en tres enlaces hacia sendos
artículos sobre el Reino Unido, Estados Unidos y
Uruguay.71 Larry Sanger pasó a colaborar con Wikipedia
y trabajó activamente en la organización y directrices del
proyecto; se marchó en 2002 por desacuerdos con
Wales.68 Ese año, Wikipedia abarcaba 26 idiomas, 46 en
2003 y 161 a finales de 2004. Wikipedia y Nupedia
coexistieron hasta la extinción de la segunda en 2003.72
Sin embargo, la posibilidad de utilizar publicidad en
Wikipedia provocó una reacción de parte de los
contribuyentes de la Wikipedia en español, motivo que
llevó a la creación de la Enciclopedia Libre Universal en
Español en febrero de 2002.73 Este episodio podría
haber impulsado a su vez la determinación de no utilizar
publicidad, la creación de la Fundación Wikimedia y el
cambio al nuevo url.74
Se han iniciado otros varios proyectos de enciclopedia
con formato wiki, en gran parte bajo una filosofía
diferente de la apertura y el modelo editorial del «punto
de vista neutral» desarrollado por Wikipedia. Por
ejemplo, Wikinfo, uno de los portales web, no requiere un
punto de vista neutral y permite la investigación
original.75 También hubo nuevos proyectos inspirados
en Wikipedia —como Citizendium, Scholarpedia,
Conservapedia, y Knol de Google76— donde algunos de
los aspectos que son fundamentales en Wikipedia se
abordan de manera diferenciada, como las políticas de
revisión por pares, la investigación original, y la
publicidad comercial.
El 20 de septiembre de 2004, Wikipedia alcanzó 1 millón
de artículos en 100 idiomas.77 En 2007 la versión en
inglés superó los 2 millones de artículos, convirtiéndose
en la enciclopedia con mayor número de artículos de la
historia y superando en ese aspecto a la Yongle Dadian
de 1407, que sostuvo el récord durante varios siglos.78
Debido a su popularidad y sencillez, el Oxford English
Dictionary ha considerado introducir el término wiki.79
En octubre de 2011, Wikimedia anunció el lanzamiento
de Wikipedia Zero, una iniciativa para permitir el acceso
gratuito móvil (datos) a la Wikipedia en países del tercer
mundo a través de colaboraciones con operadores de
telecomunicaciones móviles.8081
Política
Wikipedia tiene una serie de políticas establecidas por
los propios participantes, cuya finalidad conjunta es
mantener la identidad del proyecto como enciclopedia y
promover la calidad de sus contenidos. Cada capítulo de
Wikipedia adopta sus propias políticas, aunque algunas
son comunes a todos ellos. Una vez que la comunidad
logra el consenso sobre la aplicación de una norma,
todos los editores están obligados a respetarla.
Algunas de estas políticas son:
Debido a la diversidad y número de participantes e
ideologías, provenientes de todas las partes del
mundo, Wikipedia intenta construir sus artículos de
la forma más exhaustiva posible. El objetivo no es
escribir artículos desde un único punto de vista, sino
presentar abiertamente cada postura sobre un
determinado tema. Como es obvio, no caben todas
las posturas, pues no se admitirían, por ejemplo, la
inclusión de aportaciones de quienes exalten o
defiendan ideas que implican odio o violencia —por
ejemplo, no se admitirían frases a favor de
personajes que hayan promovido el genocidio de
razas consideradas como inferiores—.nota 3
Se sigue una serie de convenciones con respecto al
nombramiento de artículos, optándose
preferentemente por la versión más comúnmente
utilizada en su respectiva lengua.nota 4
Las discusiones acerca del contenido y edición de un
artículo ocurren en las páginas de discusión y no
sobre el artículo mismo.nota 5
Existen varios temas que resultan excluidos de
Wikipedia por no constituir artículos enciclopédicos
estrictamente hablando. Por ejemplo, Wikipedia no
contiene definiciones de diccionario —como verbos,
adjetivos, etc.—, que sí pueden encontrarse en el
Wikcionario.nota 6
Neutralidad del contenido
Wikipedia es un proyecto dirigido a —literalmente— todo
el mundo y editable por —literalmente— cualquier
persona. Esta característica constituye una de sus
mayores ventajas, pero también genera un problema:
existen personas que introducen —deliberadamente o
no— información parcial, bien creando un planteamiento
sesgado, o bien omitiendo puntos de vista que no
comparten o que no les interesan.82
La política que se encarga de combatir dicho problema
es el punto de vista neutral, que, básicamente, establece
la necesidad absoluta e innegociable de reunir en los
artículos susceptibles de polémica todos los puntos de
vista significativos. Además, las licencias de contenido
libre garantizan que dicho contenido pueda ser
reeditado cuantas veces sea necesario y por cualquier
persona si el propósito de la edición es la mejora. Según
Jimmy Wales, uno de los fundadores de Wikipedia, la
colaboración produce efectos positivos y ampliamente
aceptados.83
Para el ingeniero informático formado en filosofía
Joaquín Siabra Fraile, Wikipedia es primero un conjunto
de reglas y procedimientos y, solo después, contenidos,
las reglas son un mecanismo virtual diseñado para
conseguir unos contenidos fruto del consenso racional.
Para Siabra se dan en el wikipedista lo que Habermas
consideraba como criterios del participante en una
situación ideal de comunicación: verdad, rectitud y
veracidad.8485
Relevancia del contenido
Wikipedia, debido a su condición de enciclopedia
electrónica sin ánimo de lucro y en crecimiento
permanente tanto en lo referente a su contenido como a
su número de editores —cuya inmensa mayoría colabora
de forma altruista—, admite información que no tendría
cabida en una enciclopedia convencional, limitada esta
última por el espacio físico —número de tomos— en el
que se confina dicha información, por el número de
editores contratados por la editorial y por el tiempo
dedicado a confeccionar la obra. Sin embargo, no toda
la información tiene cabida, y existen criterios de
relevancia establecidos por consenso comunitario, de
tal modo que, aunque no se rechaza a priori ningún
artículo, se investigan las nuevas creaciones y se
descartan las que no cumplen determinados requisitos.
Por ejemplo, no se admiten los artículos
autopromocionales; esto es, que ninguna persona puede
publicar un artículo sobre sí misma, sobre una persona
cercana —familiar, por ejemplo— o sobre la empresa en
la que trabaja. Cuando el tema goza de una mínima —y
necesaria— relevancia, llega a captar la atención de
—cuando menos— algún medio de comunicación —libro,
revista, periódico— reputado, y es a estos últimos a los
que, según las normas de Wikipedia, debe acudirse para
crear el artículo. Estos criterios están contemplados en
varias políticas, a saber, «Páginas de autopromoción»,86
«Criterios para el borrado rápido»,87 «Wikipedia no es
una fuente primaria»,88 «Verificabilidad»89 y «Fuentes
fiables».90
Según declaraciones oficiosas de un «bibliotecario»
—administrador— colombiano de la Wikipedia en
español, los «bibliotecarios» de esta Wikipedia eliminan
más artículos que los de otras versiones de
Wikipedia.91
Licencia de contenido
Icono de CC-BY-SA, que simboliza a Creative Commons
Atribution Share-Alike —en español, atribución y
compartir la licencia similar de Creative Commons—.
El contenido textual está bajo las licencias GNU y
Creative Commons; la última versión se actualizó
mediante una votación entre el 12 de abril y el 3 de mayo
de 2009.92 Mediante el lema La enciclopedia libre se
entendía, al modo del software libre, como un producto
de distribución gratuita y sin restricciones. Así también,
se considera software por la codificación de MediaWiki,
bajo GPL. Esta redistribución presenta el requisito de
que debe ser acreditada, es decir, debe mencionarse su
atribución, ya que la licencia incluye Share-Alike;
además, es necesario conservar esta licencia —u otra
similar— evitando su protección de distribución.93 Sin
embargo, se había estado trabajando en el cambio a
licencias Creative Commons, porque la GFDL,
inicialmente diseñada para manuales de software, no es
adecuada para trabajos de referencia en línea y porque
las dos licencias son incompatibles.94
A cada autor, editor o ilustrador que contribuye a la
enciclopedia siempre se le atribuyen los derechos de
autor según la convención de Berna.95 Un autor también
puede copiar contenido de otro con el permiso
correspondiente —sobre todo en el caso de contenido
con licencia libre—, sin embargo no podrá usarse un
contenido que prohíbe su distribución, reproducción o
modificación de una manera ilícita, porque ello limitaría
su utilización con seguridad y acarrearía problemas con
las políticas. Por ello, en la Wikipedia en inglés puede
aparecer cualquier imagen ilustrativa siempre que lo
haga de manera lícita.96
A excepción del contenido y varias de sus
características, el isologo de esta marca corporativa
está protegido, por lo que no se permite su distribución
sin previa autorización.97
Protección de datos
Historial de ejemplo que ilustra la ocultación de
información con contenido difamatorio.
Para la fundación, la privacidad de la información es tan
importante como la prevención de vandalismo.98
Muchos artículos son revertidos o incluso ocultados del
historial —en la imagen—, este último se consigue con la
eliminación de información a través de supresores que
disponen de herramientas específicas para ello. De este
modo, por ejemplo, se eliminan las ediciones insultantes
o intimidatorias y se evitan sobrecargas confusas en el
historial del artículo.99
En cuanto a la comunidad, los usuarios no ceden
demasiada información y es la propia comunidad quien
decide salvar fácilmente de cualquier amenaza.100 Ello
permite atribuir de una manera «anónima» y minimiza el
trabajo. Para administrar, por ejemplo, se realizan
estadísticas, para organizar las visitas, artículos, entre
otros; pudiendo ser poco usual para censar
comunidades. En cuanto a la atribución, Creative
Commons, por su parte, no garantiza el contenido por
los derechos de imagen que hayan cedido.101
En la Wikipedia en alemán los artículos no son
publicados hasta haber sido revisados por un editor
experto. Se está barajando la posibilidad de aplicar la
misma medida en la Wikipedia en inglés.102
Usuarios
Wikipedia está siendo editada por miles de personas en
todo el mundo. Con excepción de ciertas personas
remuneradas por la Fundación Wikimedia,103 el resto,
conocidos en la jerga de Wikipedia como wikipedistas,
actúan siempre de manera gratuita y voluntaria.104 En
total, la comunidad está conformada por más de 400
millones de usuarios registrados en todo el mundo,105
incluyendo algo más de 1 700 000 en la versión hispana,
donde el 13 % son mujeres.106
En las páginas internas de Wikipedia —dirigidas
fundamentalmente a los colaboradores—, se anima a los
usuarios a participar activamente en el proyecto. Hay
diversas formas de colaborar: desde crear nuevos
artículos, ampliar los ya existentes, o corregir textos que
no cumplan las convenciones de estilo establecidas o
cuya información sea errónea o inexacta, hasta
clasificar artículos por materia, añadir imágenes y otros
materiales multimedia del repositorio Commons, retirar
textos con derechos de autor, aportar sugerencias, o,
para los más inexpertos, señalar simplemente cualquier
defecto encontrado con la finalidad de que otros lo
corrijan. Actualmente, 72 son administradores humanos
y 36 son sistemas de mantenimiento robot como
«trabajadores automáticos» de mantenimiento.
Usuario anónimo
Para colaborar no es necesario registrarse. Por ese
motivo, los contribuyentes que no se registran,
conocidos como usuarios anónimos, aparecen
identificados en sus ediciones con un número de IP en
lugar de con un alias. Por no estar registrados, tienen
restringidas ciertas acciones, como la de votar en la
toma de decisiones.
Usuario registrado
En Wikipedia el registro es gratuito e instantáneo. El
usuario registrado, a diferencia del anónimo, se
identifica con un alias y una página de usuario
propia,nota 7 además de poder personalizar su interfaz
de edición wiki. Una condición necesaria a la hora de
registrarse es elegir un alias que no resulte ofensivo o
difícil de escribir.107 A algunos usuarios que ya llevan
un cierto tiempo editando en Wikipedia sin problemas se
les asigna la categoría de autoconfirmados; sus
ediciones aparecen en la página de cambios recientes
con un fondo diferente al del resto de los usuarios. Es
una medida de economía de esfuerzos que permite que
los usuarios que se dedican a combatir vandalismo y
revertir ediciones incorrectas, basándose en la
confianza en estos usuarios, se abstengan de
comprobar sus ediciones y de este modo focalicen su
labor en el resto de las ediciones, disminuyendo el
volumen de trabajo con menor riesgo de equivocarse.
Al día de hoy, en la edición en español hay registrados
5 519 247 usuarios, de los cuales menos del 0,3 % son
usuarios activos —usuarios que han realizado al menos
una acción en los últimos 30 días—. De acuerdo a
Christian Stegbauer, un sociólogo alemán, «por el
número de colaboradores no puede definirse si
Wikipedia es democrática o no». En sus propias
palabras, y refiriéndose a la Wikipedia en alemán:
«nuestra conclusión es que en el fondo son menos de
1000 personas las que deciden sobre esta enciclopedia
digital».108
Se ha comprobado que determinados usuarios crean las
llamadas cuentas de propósito particular; estos usuarios
se registran con el único propósito de introducir
información que beneficie sus propios intereses, motivo
por el cual en numerosas ocasiones sus ediciones son
sesgadas, parciales o inútiles desde el punto de vista
enciclopédico.107
Según un análisis publicado el 1 de abril de 2009 por el
investigador español José Felipe Ortega, del grupo
Libresoft, de la Universidad Rey Juan Carlos, Wikipedia
había sufrido «un descenso notable de editores» en
todas sus versiones lingüísticas entre 2007 y 2009. La
noticia fue ampliamente recogida por los medios de
comunicación.109 Esta última afirmación fue
desmentida por Jimmy Wales, fundador de
Wikipedia.110
Funciones de administración
Una pequeña parte de los usuarios de Wikipedia
—alrededor del 0,5 % de los usuarios activos y del 1,4
o/oooo del total de usuarios registrados en la Wikipedia
en español—111 se dedica a labores administrativas.
Estos usuarios ejercen esas funciones —tras ser
propuestos por parte de otro u otros usuarios,
generalmente veteranos— en una votacióndemocrática
abierta a la totalidad de la comunidad de usuarios
registrados, y los requisitos y normas de dicha votación
—y de cualquier votación en general— se recogen en una
política llamada «Votaciones».112 Según el sociólogo
alemán Christian Stegbauer, «[l]o interesante es que los
administradores son elegidos, y así obtienen una
especie de legitimidad democrática. Por otro lado, solo
una parte de las personas participa activamente en
dicha elección, y muchos de ellos ya son
administradores. Si es un administrador el que propone
a un candidato, la probabilidad de ser elegido es mayor
que si la propuesta proviene de otro miembro».113
La Fundación Wikimedia describe los siguientes cargos
administrativos principales, innecesarios para editar,
pero sí necesarios para asuntos de protección y
coordinación en el software:114
Los supresores de edición son usuarios que eliminan
ediciones, decidiendo cómo de manera compleja.
Los «bibliotecarios» son usuarios que pueden
bloquear a otros usuarios para la edición, y también
pueden borrar artículos con información innecesaria.
Los denominados checkusers —en español, revisores
de usuarios— pueden rastrear una dirección IP para
verificar identidades. Esto necesario para evitar un
sistema de duplicación llamados usuarios títeres
usado con fines de ventaja en votaciones o de
engaño.
Los llamados «burócratas» tienen permisos para
otorgar estatus de administrador, controlar los bots y
cambiar nombres de usuario.
Según declaraciones oficiosas de un bibliotecario
colombiano de la Wikipedia en español, existe un
problema de comunicación entre los bibliotecarios de
esta Wikipedia en el ejercicio de las políticas y algunas
personas que se consideran expertas en determinados
temas, y este problema redunda en perjuicio para la
enciclopedia. También afirma que los bibliotecarios de
la Wikipedia en español eliminan más artículos que los
de otras versiones de Wikipedia.115 En cualquier caso,
las declaraciones de los usuarios de Wikipedia, ostenten
cargo administrativo o no, deben tomarse como una
mera opinión personal sin la menor representatividad,
puesto que, si bien los bibliotecarios son elegidos
democráticamente por el resto de los usuarios, entre sus
funciones no se encuentran las de representar a la
comunidad o a Wikipedia ni la de establecer autoridad
más allá de la que les confiera el ejercicio de las
políticas.116
Bot
Regularmente operan en Wikipedia varios sistemas de
edición automática. Se denominan bots —contracción
de robot—, y cumplen la realización de ciertas tareas
tediosas para los editores, como la creación de enlaces
entre las distintas ediciones de la enciclopedia,
pequeños ajustes internos del código wiki, la corrección
de faltas ortográficas, etc. Algunas ediciones de
Wikipedia utilizan también bots para la creación masiva
de artículos, normalmente esbozos. Para ser
considerados como tales deben tener al menos el afijo
BOT y un supervisor, el cual es el usuario propietario.117
Acceso
Captura de Kiwix, la versión offline de Wikipedia, 2012.
Un libro impreso en papel de Wikipedia. Este tipo de
libros se puede obtener mediante PediaPress.
Aparte del sitio web, se han elaborado otras versiones
alternativas que cumplen la misión de visualizar
artículos a pesar de las críticas a la censura de artículos.
En los móviles
En agosto de 2009, la Fundación Wikimedia lanzó una
aplicación oficial de Wikipedia para el iPhone y el iPod
Touch que se puede descargar de la App Store. Esta
aplicación es libre, gratuita y solo funciona en el iPhone
3G o en versiones más recientes.118 También hay
versión para Android.119 En cuanto a acceso mediante
sitio web, ya existían alternativas como el sitio Wapedia;
sin embargo, Wikipedia cuenta con su propia versión
móvil del sitio, disponible en línea.
En aplicaciones virtuales
Otras versiones publicadas por la Fundación Wikimedia
fueron las distribuciones en soporte físico sobre CD
(2003) y DVD (2005), en las cuales se incluían las
versiones en alemán, polaco, portugués e inglés. Esto se
hace mediante el software libre Kiwix que permite su
instalación directa. Estas características permiten que
sea posible ser usadas en computadoras sin conexión a
internet, permitiendo la interactividad y comunicación
entre diferentes puestos como por ejemplo centros
infantiles.120
En versiones impresas
En Wikipedia hay servicios que ofrecen la versión
impresa. MediaWiki ha incorporado una herramienta de
recolección para exportar artículos a ODF o PDF.121
También existe la posibilidad de imprimir libros vía
PediaPress, un programa socio de la fundación
Wikimedia, mediante la misma solicitud.122
Restricciones de acceso
Desde octubre de 2005, China había bloqueado el
acceso a Wikipedia, pues el gobierno bloquea
habitualmente el acceso a los sitios web que considera
subversivos y filtra las páginas de Internet con términos
que considera delicados.123 Un año después, Wikipedia
fue desbloqueada en el territorio chino, aunque la
censura se mantuvo parcialmente con los términos
«sensibles», tales como Tíbet o Falun Gong.124
En 2008, varios centros educativos de los Estados
Unidos prohibieron el uso de Wikipedia desde sus
instalaciones por considerarla poco fiable.125 También
en el mismo año, 160 000 usuarios solicitaron a través
del sitio web Care 2 la retirada de las imágenes sobre
Mahoma en los artículos de Wikipedia. En este caso la
petición fue rechazada.126
En octubre de 2011, debido a la aprobación de la ley
mordaza, la Wikipedia en italiano tuvo que suspender las
actividades por temor a la severas multas que
ejecutarían en sus contenidos biográficos.127 De
manera similar, en enero de 2012, la versión inglesa se
autocensuró para protestar a la ley SOPA durante un día
entero. Uno de los delegados de Twitter, Dick Costolo,
consideró al sitio web que «cerrar un negocio global por
un solo asunto de política nacional es una locura».128
129
Fundación Wikimedia y proyectos hermanos
Nota: No debe confundirse Wikipedia con la Fundación
Wikimedia, la organización no gubernamental que
mantiene al sitio web Wikipedia.
El sitio web de Wikipedia está mantenido
exclusivamente por la Fundación Wikimedia, una
organización sin ánimo de lucro instituida bajo las leyes
de Florida (Estados Unidos) cuya finalidad es promover
en el mundo apoyo económico y social para varios
proyectos colaborativos de contenido libre.130131 Su
existencia fue oficialmente anunciada por el director
general de Bomis y cofundador de Wikipedia, Jimbo
Wales, el 20 de junio de 2003.
Proyectos complementarios de apoyo
Dos de los proyectos de la Fundación Wikimedia actúan
como complementos del resto de los proyectos,
incluyendo a Wikipedia. Uno es un almacén de contenido
multimedia que los editores del resto de los proyectos
pueden incrustar a modo de ilustraciones, y el otro se
encarga del software que sustenta a todos los
proyectos:132
Wikimedia Commons: También recibe los nombres
de Commons o La Comuna, es un depósito común
de imágenes y contenido multimedia libre para los
proyectos hermanos de la Fundación Wikimedia.
Antes de su existencia, para usar una imagen en una
cierta Wikipedia había que subirla a la edición
correspondiente, con lo que se clonaba el mismo
contenido varias veces, algo realmente ineficiente.
Para ello se usaban scripts de subida masiva, que
ahora han caído en desuso por la existencia de
Commons.
Meta-Wiki: Es un sitio web cuyo sistema administra
la tecnología wiki para la visualización de las páginas
de los proyectos de la Fundación Wikimedia.
Proyectos hermanos
Hay contenidos que no tienen cabida en Wikipedia por
no ser información enciclopédica. Por ello se han
desarrollado varios proyectos hermanos independientes
entre sí que recogen este otro tipo de información.
Todos ellos son también multilingües y libres y están
administrados por la Fundación Wikimedia.133
Wikcionario: Es el proyecto de la Fundación
Wikimedia para la construcción de un diccionario
libre. Tiene una función complementaria a Wikipedia,
ya que un gran número de artículos, por su carácter
no enciclopédico, se destinan al diccionario.
Wikilibros: Tiene por objetivo poner a disposición de
cualquier persona libros de texto, manuales,
tutoriales u otros textos pedagógicos de contenido
libre y de acceso gratuito.
Wikiversidad: Apoyada en el anterior, se propone
como una plataforma educativa en línea, libre y
gratuita, donde es posible crear proyectos de
aprendizaje a cualquier nivel educativo, participar en
un grupo de aprendizaje, crear contenidos didácticos
tales como exámenes, ejercicios de prácticas, etc.
Wikiquote: Es un compendio abierto en línea de
frases célebres en todos los idiomas, incluyendo las
fuentes —cuando estas se conocen—.
Wikinoticias: Es una fuente de noticias de contenido
libre.
Wikisource: Es una biblioteca en línea de textos
originales que han sido publicados con una licencia
GFDL o se encuentran en el dominio público.
Wikiespecies: Es un repertorio abierto y libre de
especies biológicas cuyo objetivo es abarcar todas
las formas de vida conocidas.
Wikiviajes: Es una guía turística libre.
Software y hardware
Wikipedia recibía en 2008 entre 10 000 y 30 000
peticiones de páginas por segundo, dependiendo de la
hora del día.134 Más de 250 servidores soportaban el
tráfico.nota 8
Wikipedia se ejecuta sobre el software libre MediaWiki
en un cluster —agrupación— de servidores situados en
Florida y en otros lugares del mundo: 239 máquinas en
Florida, 22 en Ámsterdam y 23 en las instalaciones
coreanas de Yahoo!135 MediaWiki es la fase III del
programa, cuya historia de desarrollo es la siguiente:
Fase I: Originalmente, Wikipedia se ejecutaba en
UseModWiki, creado por Clifford Adams. Al principio
era necesario usar CamelCasepara los enlaces;
después esto se solucionó y fue posible usar dobles
corchetes.
Fase II: En enero de 2002, Wikipedia comenzó su
funcionamiento sobre un motor wiki en PHP con
base de datos MySQL. Este software, fase II, fue
escrito por Magnus Manske específicamente para el
proyecto Wikipedia. Más tarde se implementaron
muchas mejoras y modificaciones para incrementar
el rendimiento debido a la creciente demanda.
Fase III: Por último, el software fue reescrito por Lee
Daniel Crocker. Establecida en julio de 2002, esta
fase III del programa se llamó MediaWiki. Está
amparada bajo la licencia GPL y es usada por todos
los proyectos de Wikimedia.
En octubre de 2008, sus servidores migraron a
Ubuntu.136
Impacto popular
Wikipedia es uno de los sitios web más visitados y
referenciados del mundo en Internet, y
consecuentemente es uno de los primeros sitios —o
incluso el primero, en muchos casos— de entre los que
aparecen en los resultados de los motores de
búsqueda.11137 Este hecho, sumado a la influencia
cada vez mayor de Internet sobre las personas, trae
como consecuencia un enorme impacto popular de la
enciclopedia colaborativa a todos los niveles, impacto
que se va acrecentando a medida que pasa el
tiempo.138138
En los últimos años, Wikipedia ha estado influyendo
notablemente en los medios de comunicación, sobre
todo periodísticos, los cuales en numerosas ocasiones
copiaron información de la web enciclopédica, la
mayoría de las veces sin citar la fuente.139 A este
respecto, es bastante ilustrativo el experimento
realizado por Shane Fitzerald, un estudiante universitario
dublinés de 22 años, publicado el 6 de mayo de 2009 por
el periódico IrishTimes.com:140141
Tras enterarse del fallecimiento de Maurice Jarre unas
horas antes, Shane editó el artículo correspondiente al
compositor para incluir una cita ficticia:
[[PASTING TABLES IS NOT SUPPORTED]]
Poco después la cita apareció en las secciones
necrológicas de los periódicos The Guardian y The
London Independent, en el sitio web The BBC Music
Magazine y en periódicos de la India y Australia.
Este experimento demuestra la fuerza de Internet a
escala global. Los periodistas que usaron esta cita
obviamente confiaron en Wikipedia como fuente de
información; tal vez no podían permitirse el lujo de
realizar investigaciones ulteriores bajo la presión de la
necesidad de ser los primeros en publicar la cita, y como
resultado proporcionaron a los lectores una información
falsa. En cuanto a Wikipedia, los errores normalmente se
corrigen con prontitud, aunque, en casos como el
relatado, no lo suficiente como para adelantarse a los
acontecimientos.
Este tipo de experimentos raramente se realizan en
Wikipedia, y los editores que son descubiertos reciben
por parte de los administradores severos castigos que,
en función de la gravedad de su falta, pueden llegar al
bloqueo de su dirección IP a perpetuidad.
Por otra parte, existen personas que acusan a Wikipedia
de difamación, y es ilustrativo el caso de Alejandro Peña
Esclusa, quien afirmaba que el gobierno de su país
estaba llevando contra él una campaña en la que
colaboró la enciclopedia.142 En cualquier caso,
Wikipedia, como proyecto de fuente no primaria que es,
se basa en una serie de políticas que promueven la
verificabilidad y el uso de fuentes fidedignas y
reputadas. A partir de este punto, Wikipedia delega
cualquier tipo de responsabilidad en el momento en que
publica el nombre de la fuente de la que se obtuvo la
información. De ahí, entre otras cosas, la importancia de
la verificabilidad, uno de los cinco pilares básicos sobre
los que se sustenta el proyecto.143
Se han producido varios casos en los que dirigentes
políticos, o personas próximas a ellos, modificaron
artículos de Wikipedia interesadamente.144145
En otro orden de cosas, se han creado versiones que la
parodian. Entre las más conocidas se encuentran, en
inglés, Uncyclopedia y Encyclopædia Dramatica, y, en
español, La Frikipedia e Inciclopedia. En historietas
humorísticas, Skeletor aparece vandalizando el artículo
de He-Man.146
Premios y reconocimientos
Debido a sus méritos y popularidad, el sitio web ha
obtenido a lo largo de los años varios galardones y
menciones.148 Algunas muestras son las siguientes:
En abril de 2004, Jonathan Dee, de The New York
Times,149 y Andrew Lih, en el 5th International
Symposium on Online Journalism(2004),150 citaron
la importancia de Wikipedia no solo como
enciclopedia de consulta sino también como fuente
de información actualizada debido a la rapidez con
que aparecían los artículos sobre eventos recientes.
El 23 de junio de 2004, Wikipedia recibió el premio
Golden Nica for Digital Communities en el concurso
anual de Prix Ars Electronica, dotado con mil libras
esterlinas.151
En la primavera de 2004, se le concedió el Premio
Webby en la categoría «Best Community» —«Mejor
Comunidad»—.152
En 2006, la revista Time nombró a “You” —en
español, 'usted, tú, vos'— como «Persona del año»,
reconociendo así el éxito acelerado de la
colaboración en línea y de la interacción entre
millones de usuarios de todo el mundo; asimismo
citó a Wikipedia como uno de los tres ejemplos de
servicios «Web 2.0», junto con YouTube y
MySpace.153
El 26 de enero de 2007, Wikipedia obtuvo el cuarto
lugar en una encuesta realizada a los lectores de
brandchannel.com, recibiendo el 15 % de los votos en
respuesta a la pregunta «¿Qué marca tuvo el mayor
impacto en nuestras vidas en 2006?».154
El 24 de octubre de 2008 Wikipedia participó, junto
con otros 23 sitios web nominados, en el Premio
Príncipe de Asturias de Comunicación y
Humanidades. El ganador fue la división española de
Google.155
A destacar que, en 2010, la empresa Google donó
dos millones de dólares a la Fundación Wikimedia al
tiempo que mencionaba a Wikipedia como «uno de
los grandes triunfos de internet».156
En 2013, Andriy Makukha de Wikimedia Ucrania
propuso el nombre «Wikipedia» al asteroide 2008
QH24. (274301) Wikipedia es un asteroide del
cinturón de asteroidesdescubierto en 2008. La
designación fue avalada por la Unión Astronómica
Internacional (UAI).157158
La designación oficial del asteroide «Wikipedia» dice:
Wikipedia es una enciclopedia libre, copyleft y
colaborativamente editada lanzada en 2001. En 11
años de su recopilación se convirtió en una de las más
importantes obras de referencia y en uno de los sitios
más visitados de Internet. Es desarrollada por
entusiastas de todo el mundo en más de 270 idiomas .
Designación del MPC159
El 17 de junio de 2015 le fue otorgado el Premio
Princesa de Asturias de Cooperación
Internacional.160
Importante ejemplo de cooperación internacional,
democrático, abierto y participativo, en el que
colaboran desinteresadamente miles de personas de
todas las nacionalidades, que ha logrado poner al
alcance de todo el mundo el conocimiento universal
en una línea similar a la que logró el espíritu
enciclopedista del siglo XVIII
Fundación Princesa de Asturias
Estadísticas sobre visitas
Según las estadísticas hechas por Alexa, sobre las
Wikipedias más visitadas161 y sobre los países que
más visitan Wikipedia se muestran los siguientes:162
[[PASTING TABLES IS NOT SUPPORTED]]
En la parte superior del portal www.wikipedia.org, se
puede observar a las 10 Wikipedias con más ediciones.
Distribución de editores por países
Países desde donde se editan los artículos.
Wikipedia en alemán: Alemania (68 %), Austria
(7,8 %).
Wikipedia en español: España (18,4 %), México
(16,5 %), Argentina (13,1 %).
Wikipedia en francés: Francia (65,8 %), Canadá
(5,3 %).
Wikipedia en inglés: EE.UU: (32 %), R.U. (9,4 %), India
(5,7 %), Canadá (5,3 %).
Wikipedia en japonés: Japón (86 %), China (1,8 %).
Ver lista completa y otras estadísticas.
Estímulos
Los usuarios de Wikipedia organizan eventos regulares y
ocasionales con el objetivo de promover la creación y
edición de artículos. Por ejemplo, en 2006 se creó un
proyecto llamado Wiki-reto: 250 k, dedicado a aumentar
el número de artículos, con el que se llegó al final del
año a los 250 000 artículos en la Wikipedia en
español.164 Proyectos de ese tipo o similares se
organizan cada año. Por otro lado, existe una serie de
proyectos incluidos en el propio sitio web que reciben el
nombre de wikiproyectos, cada uno de los cuales se
dedica a trabajar sobre un tema específico
—correcciones ortográficas, creación y ampliación de
artículos de determinado campo, manejo de
ilustraciones, etc.165
Fuera del sitio web, otros han expresado las impresiones
personales que el sitio les produce. Por ejemplo, Vicente
Verdú, en un artículo de la versión digital del periódico El
País, describió la experiencia de usar Wikipedia como
«una divertida y multitudinaria manera de gozar, jugar,
amar y pasar el rato».166 Por su parte, en un artículo de
opinión en Terra Networks Perú se consideraba que su
uso desordenado y excesivo causaba «wiki
adicción».167
En una entrevista con Jimmy Wales, representante de la
Fundación Wikimedia, para EFE, este explicó su creencia
de que la expansión de Internet en otros países
ampliaría el uso de Wikipedia sobre todo en lugares
subdesarrollados, creando de este modo una conexión
de culturas.168 Con motivo del décimo aniversario de
Wikipedia, el mismo Wales declaró su deseo de que
Wikipedia alcanzase los 1000 millones de usuarios para
2015.169
En el ámbito económico, Alex Konanykhin, fundador y
presidente de WikiExperts.us —no perteneciente a
Wikimedia—, presentó a Wales una propuesta de
colaboración. El plan consistía en ofrecer los servicios
de una red de escritores por contrato a todas las
empresas o entidades que cumpliesen con los
requisitos de rigor exigidos por Wikipedia para crearles
sus propios artículos de forma enciclopédica. Según
Konanykhin, este modelo financiero aseguraría el futuro
de Wikipedia.170 No obstante, Wikipedia, lejos de
presentar apuros económicos, ha batido su récord de
recaudación en la campaña efectuada para el ejercicio
de 2011, con 16 millones de dólares procedentes de
500 000 donantes de 140 países, todo ello en tan solo
un mes y medio.171
Críticas
Pierre Assouline et al. (2008) son algunos de los
pensadores con postura crítica hacia Wikipedia y hacia
sus contenidos.
Al igual que ha recibido alabanzas, la Wikipedia es
objeto de numerosas críticas en sus contenidos o
carencias de contenidos, la calidad de los mismos y el
sistema establecido para la recepción de los nuevos
editores.
Falta de referencias y de contenidos
Desde su nacimiento, Larry Sanger ya discrepó por la
posible falta de veracidad, y le siguieron después otros
autores, caso de Arias Maldonado (2010, p. 15-31) o
Assouline et al. (2008). Incluso los que la defienden
como una obra documentada, caso de Tim O'Reilly, la
colocan en los últimos puestos.172 Ndesanjo Macha
indica que muchas veces lo más enriquecedor está en
las discusiones y no en el artículo propiamente dicho,
porque allí pueden reflejarse mejor los distintos puntos
de vista y las lagunas existentes.
Para Bob McHenry, exeditor de la Enciclopedia Británica,
uno de los mayores riesgos a los que se enfrenta
Wikipedia es la entrada de personas convencidas de que
su punto de vista es el verdadero, impidiendo incluir
cualquier otro. Por esta razón, lo realmente valioso
puede aparecer en las discusiones y no el artículo, como
confirma Ndesanjo Macha.172
Para Assouline et al. (2008, p. 12) Wikipedia está
matando los valores de verificación y consulta de
fuentes primarias que deben tener los periodistas,
historiadores o profesionales del conocimiento en
general. Según el autor "esta enciclopedia en línea es
también el instrumento ideal para desinformar" al ser
editada por partidos políticos y otros grupos de
presión.173 Además presenta problemas en la
diferenciación de lo importante y lo superfluo: así, en la
versión francesa, la entrada sobre Albert Londres
comenzaba diciendo «periodista judío francés [...]»
como si su religión fuese el segundo dato más
importante del resumen, incierto al mismo tiempo por
ser londinense y católico, fruto de una campaña para
desacreditarlo haciéndolo pasar por judío. Otro ejemplo
era el artículo sobre Alexandre Solzhenitsyn que
dedicaba la mitad de su contenido a la relación del
escritor con España, por haber realizado un comentario
sobre Francisco Franco que no gustó al redactor.174
Los ejemplos dados por Assouline sobre la excesiva
extensión de unos contenidos frente a otros fueron
refrendados por un estudio dirigido por la Universidad de
Minnesota, junto a otras tres, en 2011. La conclusión fue
que la Wikipedia en inglés mostraba que los artículos
realizados por mujeres, presumiblemente destinados
más a un público femenino, eran significativamente más
cortos que los redactados por hombres o por hombres y
mujeres. En ese mismo año la Universidad de Oxford
demostró que el 84 % de las referencias a localidades se
situaban en Europa y América del Norte, del mismo
modo que la Antártida contaba con más artículos que
África o Sudamérica.175
Errores y vandalismo
El vandalismo es uno de los problemas más recurrentes.
Existen diferentes herramientas para combatirlo. En la
imagen se muestra la reversión automática de dos
ediciones vandálicas.
Dos de los principales motivos por los cuales Wikipedia
es criticada en cuanto a la exactitud y fiabilidad de sus
contenidos son la persistencia de detalles erróneos
difíciles de detectar —imprecisiones no necesariamente
malintencionadas, pero que pueden permanecer en un
artículo por mucho tiempo—.176
Por su parte los actos vandálicos, modificaciones
inapropiadas u ofensivas de los artículos que
entorpecen el desarrollo del proyecto, constituyen un
importante factor en las problemáticas de contenido,
cuya solución a largo plazo no pasa —como sucede en
los otros dos casos— por una mejora constante de la
calidad ni por la incorporación o ampliación progresiva
de artículos. Mientras que las inexactitudes de
contenido y las tendencias de crecimiento irregular175
pueden ser subsanadas a medida que siga
evolucionando el proyecto —y aumenten las ediciones
de artículos—, el vandalismo representa una amenaza
constante que se incrementa en proporción al
crecimiento exponencial de Wikipedia. Por ejemplo, la
exposición a una mayor afluencia de visitas a los
artículos publicados en varios medios de prensa
implicaba un porcentaje muy alto de vandalismos
—incluidos de personajes públicos—, casi tanto como el
de cambios constructivos.177178179
Pero no solo se trata de ediciones dentro de artículo,
también existen artículos enteros falsos.nota 9 La
Wikipedia en inglés posee una entrada dedicada solo a
ellos, como también la Wikipedia en español. La
existencia de artículos falsos con una duración de casi
diez años siembra dudas sobre la capacidad de
Wikipedia para autocorregirse. En otros casos, además
de la duración destaca los sucesivos filtros por los que
pasaron, caso del Conflicto de Bicholim que fue
redactado sin que nadie se percatara del fraude,
propuesto a Bueno, elegido como Artículo Bueno,
propuesto a Destacado y rechazado por cuestiones
técnicas sin que nadie comprobase la veracidad de los
contenidos.180 De manera similar pasó con el artículo
Cayo Flavio Antonino, supuesto asesino de Julio César,
cuya entrada permaneció ocho años en forma de
esbozo.181 Uno de los más controversiales fue
Santiago Swallow, conferencista ficticio creado por
Kevin Ashton y que fue descubierto al publicarse un
artículo de prensa donde el autor declaró que «invirtió 68
dólares para hacerlo famoso».182183 En 2014 se
desarrolló un algoritmo hecho por la Universidad de
Nanjing de Correos y Telecomunicaciones sobre la base
de la red bayesiana, método similar a la detección de
correo basura; se piensa que el sistema se
implementará en un futuro próximo.184
Un ejemplo paradigmático de vandalismo masivo se
produjo el 31 de julio de 2006 como consecuencia de
una llamada a la participación por parte de Stephen
Colbert, un conocido humorista y presentador de la
televisión norteamericana, en una sección de su
programa The Colbert Report que tituló Wikiality:186
Después de algunos gags en torno a la posibilidad de
cambiar la ubicación de estados y países en sus
respectivas definiciones de Wikipedia, animó a los
telespectadores a modificar la entrada 'elefante' para
que constara que, en lugar de disminuir, la población del
elefante africano se había triplicado. Como resultado
inmediato, hasta veinte entradas de la Wikipedia en
inglésque hacían referencia a elefantes fueron
bloqueadas por sus administradores, o bien pasaron a
estado de semi-protegidas, solo modificables por
usuarios registrados con un mínimo de antigüedad.
Para todos los ejemplos citados y sus variantes, aparte
de las medidas correctoras llevadas a cabo en forma de
reversión, aviso o bloqueo, la comunidad de wikipedistas
crea y mantiene —al igual que sucede entre
programadores voluntarios en entornos de software
libre— toda una serie de herramientas e
implementaciones técnicas destinadas a actuar contra
el vandalismo, desde foros y canales específicos de
IRChasta programas paralelos de detección y aviso,
pasando por usuarios que son en realidad programas
bot cuya misión es exclusivamente combatir los actos
vandálicos. Parece que con dichas modificaciones ese
problema comenzó a estar bajo control desde 2007,
pero limitó las posibilidades de supervivencia de
Wikipedia.175
En otras ocasiones los errores llegan por la confusión.
Algunos han confundido «Wikipedia» con
«WikiLeaks»,187 un sitio de almacenamiento de
documentos filtrados conocido por la polémica del
cablegate. Jimmy Wales, cofundador de Wikipedia,
explicó que, cuando en 2006 WikiLeaks comenzó sus
actividades, se presentó como la 'Wikipedia de los
secretos'. Cuando Wales fundó Wikipedia creó una
organización llamada Wikia. Esta organización se
encargó de registrar los dominios bajo el término Wiki, y
permitió a WikiLeaks en sus comienzos la utilización del
término Wiki y su dominio correspondiente. No obstante,
actualmente —enero de 2011—, los dominios adquiridos
por WikiLeaks están a punto de caducar, y Jimmy Wales
no tiene intención de renovar el contrato ya que, en sus
propias palabras, no desea que Wikipedia se relacione
con WikiLeaks.188
Manipulaciones y sesgo
El proyecto cuenta con importantes subvenciones de
multinacionales estadounidenses, de intereses
capitalistas.189190 Por otro lado, en opinión de César
Rendueles, doctor en filosofía, profesor asociado de la
Universidad Complutense de Madrid191 y usuario de
Wikipedia, «todo [en Wikipedia] es mucho más
doméstico de lo que alguna gente se imagina». En su
opinión, «la enciclopedia está “controlada” por todos
aquellos que generosamente dedican su tiempo
regularmente a la edición de artículos», y afirma que
como resultado la enciclopedia refleja el perfil
predominantemente conservador —aunque en muchos
casos para la redacción de artículos, muestra el lado
liberal, dando mayor énfasis en la libertad de contenido
que en la cooperación del mismo—192193 de quienes
disponen de más tiempo libre. Concluye diciendo que
«una mayor presencia de la comunidad universitaria y
escolar sería un auténtico soplo de aire fresco» para la
enciclopedia.194 Opinión contraria a otros autores como
Daniel Rodríguez Herrera, para quien la Wikipedia posee
una clara tendencia izquierdista, lo cual se comprueba
viendo los resúmenes de Stalin y otros dirigentes
comunistas que no son llamados en ningún momento
"dictadores", solamente líderes.195
Algunas empresas han intentado en repetidas ocasiones
manipular la información que aparece sobre ellas en
Wikipedia enfatizando los aspectos positivos y
suavizando o eliminando los negativos con el fin de
mejorar su imagen corporativa. Por ejemplo, Microsoft
eliminó un párrafo donde aparecían los errores de su
consola Xbox 360, y el consorcio petrolífero Chevron-
Texaco borró todo un texto sobre biodiésel. En 2013 el
diario económico Expansión denunció las acciones de
algunas de las principales empresas españolaspara
manipular su historial o alterar favorablemente las
biografías de sus directivos.196 Cambios de este tipo
pueden ser detectados con la utilización de una
herramienta llamada WikiScanner.197
Otras críticas, además de en su precisión, han estado
refiriéndose a la violación de la intimidad de algunas
personas,198199 a la adición de imágenes interpretadas
como pornografía infantil,200201 la escasa certeza en
las entradas sobre temas de salud,202 o a la creación de
artículos biográficos sobre animales. Algunas denuncias
llegaron a ser muy notorias y graves como el uso del
escudo perteneciente a la Oficina Federal de
Investigación en uno de sus artículos.203
Un tema de controversia en ciertos medios es la labor de
algunos administradores —«bibliotecarios»—, que se
extralimitan en sus funciones bloqueando a otros
usuarios y generando enfados, razón por la cual varios
quieren mantener su incógnito por miedo a
represalias.174 También el ambiente de Wikipedia
permite e incluso fomenta ese tipo de actuaciones;
pues, según Arias Maldonado,204 una de las partes
divertidas de Wikipedia es conspirar. Una evidencia por
parte de FiveThirtyEight sobre los 100 artículos más
editados de la versión en inglés muestra que los temas
más controvertidos para la Wikipedia son los deportes,
personajes del entretenimiento norteamericano, política
y religión. En el top de la lista están los artículos sobre
Estados Unidos, Michael Jackson, Jesucristo y los
luchadores de la WWE, el último mucho mayor que el
artículo del Real Madrid.205
Género
Un estudio sobre el tratamiento desigual en los
contenidos de la mayor enciclopedia de la web dio
cuenta de que solo las grandes mujeres están bien
representadas en la enciclopedia y los artículos sobre
ellas presentan desigualdades de género.206207
Reducción en el número de visitas y de editores
A pesar de que cada vez más personas se informan en
Wikipedia, este sitio web ha visto una baja significativa
en sus visitas en el buscador Google, unos 250 millones
en tres meses (abril-junio de 2015) que representa cerca
del 11 %, así lo informó un estudio de Similar Web,
empresa británica de tecnología e información y luego
corroborado por el cofundador de Wikipedia, Jimmy
Wales.208 Una de las razones de esa brusca caída
puede ser que el buscador da una referencia directa a
Wikipedia al lado derecho de la pantalla, lo que quitaría
la necesidad de cliquear el enlace.209
Según la tesis doctoral de Ortega Soto (2009) las
principales versiones de Wikipedia (inglesa, alemana,
japonesa, española, etc) estaban perdiendo usuarios
porque los nuevos editores no compensaban en número
a los veteranos que abandonaban la edición. Además
había disminuido el tiempo medio que un editor tardaba
en desistir. Esta tendencia la confirmó en 2013 Tom
Simonite, del Instituto Tecnológico de Massachusetts
(MIT), cuando confirmaba que la propia Fundación
Wikimedia reconocía que la enciclopedia en línea tenía
problemas ante la carencia cada vez más acusada de
voluntarios.175
Spotify es una aplicación multiplataforma sueca,
empleada para la reproducción de música vía streaming.
Cuenta con un modelo de negocio premium, un servicio
gratuito básico y con publicidad; pero con
características adicionales, como una mejor calidad de
audio, a través de una suscripción de pago. Permite
escuchar en «modo radio», buscando por artista, álbum
o listas de reproducción creadas por los propios
usuarios.
El programa se lanzó el 7 de octubre de 2008 al mercado
europeo, mientras que su implantación en otros países
se realizó a lo largo de 2009.2 Está disponible para los
sistemas operativos Microsoft Windows, Mac OS X,
Linux, Windows Phone, Symbian, iOS, Android y
BlackBerry.
La empresa sueca, que tiene su sede en Estocolmo,
Suecia, ha firmado acuerdos con las discográficas
Universal Music, Sony BMG, EMI Music, Hollywood
Records, Interscope Records y Warner Music entre
otras.3 A abril del 2019, el servicio cuenta con 217
millones de usuarios activos, de los cuales 100 millones
son usuarios de pago.4
Modo de funcionamiento y requisitos del sistema[editar]
Spotify ofrece transferencia de archivos de audio por
Internet a través de la combinación de servidores
dedicados al streaming y en la transferencia de red de
pares (P2P) en la que participan los usuarios. Una
conexión a Internet de 256 kbit/s es suficiente, y la tasa
de bits de las pistas es de 320 kbit/s. Los archivos de
audio se pueden reproducir bajo demanda, como si
estuvieran en el disco duro del usuario. Las canciones
se guardan en la caché del software para evitar
consumir más ancho de banda al repetir las canciones
una y otra vez. Utiliza el códec de audio Vorbis (Ogg).
Los usuarios en modo premium acceden un nivel de
calidad de audio superior (q9). El contenido de la caché
del software se basa en un índice que sirve para que
Spotify conecte con el servicio. Este índice se utiliza
para informar a otros clientes sobre otros usuarios que
pueden conectarse a los datos para que se reproduzcan
las pistas que desea escuchar.
Se hace por cada cliente que utiliza el programa; al
inicio, actuando como un servidor para escuchar las
conexiones entrantes de otros usuarios de Spotify así
como la conexión de forma intuitiva a otros usuarios
para el intercambio de datos en caché, según proceda.
Actualmente no hay datos oficiales de los
desarrolladores acerca de cuántas conexiones y la
cantidad de ancho de banda que ofrece cada usuario al
sistema; el software no ofrece ninguna forma para que
el usuario pueda configurar estos parámetros.
Los requisitos del sistema son, al menos, Mac OS X
10.7, Windows Vista o superior. También es posible
ejecutar el programa en GNU/Linux. El tamaño de la
caché lo puede limitar el usuario y se puede elegir la
ubicación de memoria de caché. Se recomienda para la
caché por lo menos 1 GB de espacio libre.
El usuario debe configurar una cuenta para poder utilizar
la aplicación. Esta cuenta puede utilizarse en varios
dispositivos, pero solo puede reproducir música en un
dispositivo a la vez.
Disponibilidad geográfica[editar]
Spotify está disponible en 65 países, estos son
Alemania, Andorra, Argentina, Australia, Austria, Bélgica,
Brasil, Bolivia, Bulgaria, Canadá, Chile, Colombia, Costa
Rica, Chipre, Dinamarca, Ecuador, El Salvador, Estonia,
Eslovaquia, España, Estados Unidos, Filipinas, Finlandia,
Francia, Grecia, Guatemala, Honduras, Hong Kong,
Hungría, Indonesia, Irlanda, Islandia, Italia, Japón,
Letonia, Liechtenstein, Lituania, Luxemburgo, Malaysia,
Malta, México, Mónaco, Nicaragua, Noruega, Nueva
Zelanda, Países Bajos, Panamá, Paraguay, Perú, Polonia,
Portugal, Reino Unido, República Checa, República
Dominicana, Singapur, Suecia, Suiza, Tailandia, Turquía y
Uruguay.5 Únicamente los clientes de los países
mencionados pueden comprar una cuenta «Premium»
mediante una tarjeta de crédito o débito o una cuenta de
Paypal.6
Cronología de lanzamientos[editar]
Spotify se puso en marcha (por invitación solamente) en
los países escandinavos, el Reino Unido, Francia y
España en octubre de 2008.
Mapa que muestra la disponibilidad de Spotify en el
mundo en 2019.
Spotify fue lanzado en los Estados Unidos el 14 de julio
de 2011,7 en Dinamarca se lanzó el 12 de octubre de
2011 .8 y en Australia y Nueva Zelanda el 22 de mayo de
2012.9 El 13 de noviembre de 2012 empezó a estar
disponible para la República de Irlanda y Luxemburgo.
El 11 de febrero de 2013 entró a los mercados de Italia,
Polonia y Portugal. Spotify fue lanzado en México, Hong
Kong, Malaysia, Singapur, Estonia, Letonia, Lituania e
Islandia los días 15 y 16 de abril de 2013.10 y en
Australia y Nueva Zelanda el 22 de mayo de 2012.11
El 3 de diciembre de 2013 empezó a estar operativo en
Colombia como una promoción pre-estreno auspiciada
por Coca-Cola.12 El 24 de septiembre de 2013, Spotify
se lanzó en Argentina, Grecia, Taiwán y Turquía.1314 El
11 de diciembre de 2013, Spotify empezó a estar
disponible en Costa Rica. El 12 de diciembre de 2013,
Spotify fue lanzado simultáneamente en 20 nuevos
mercados. Los países agregados fueron: Bolivia,
Bulgaria, Chile, Colombia, Costa Rica, Chipre, Ecuador, El
Salvador, Eslovaquia, Guatemala, Honduras, Hungría,
Malta, Nicaragua, Panamá, Paraguay, Perú, República
Checa, República Dominicana y Uruguay.1516
El 8 de abril de 2014 fue lanzado en Filipinas, el 28 de
mayo en Brasil y el 30 de septiembre en Canadá.
Fue lanzado en Indonesia un 30 de marzo de 2016 y el
29 de septiembre en Japón.
El 22 de agosto de 2017 en Tailandia y un 13 de marzo
de 2018 en Israel, Rumania, Sudáfrica y Vietnam.
El 13 de noviembre de 2018 fue lanzado en Emiratos
Árabes Unidos, Arabia Saudita, Kuwait, Omán, Qatar,
Bahrein, Argelia, Marruecos, Túnez, Jordania, Líbano,
Palestina y Egipto.17
En la India es lanzado el 26 de febrero de 2019,18
sumando así 79 mercados en los que Spotify está
presente.
Cuentas y suscripciones[editar]
Spotify puede descargarse desde el sitio web de Spotify
y utilizarse de cuatro maneras.19
Las versiones «Free» y «Open» son de uso gratuito,
financiado por la publicidad que ofrece de forma
esporádica el reproductor. En un principio la diferencia
entre ambas era que la versión «Free» era accesible solo
mediante invitación y no había ningún problema de
restricción, mientras que la «Open» era abierta a todo el
mundo, teniendo como desventaja que solo permitía
veinte horas de reproducción mensuales. A partir del 1
de mayo de 2011 ambas versiones pasan a tener
exactamente las mismas características: un límite de 10
horas de reproducción mensuales y la reproducción de
cada tema un máximo de cinco veces.20
Por medio del pago de una cuota mensual, cualquier
usuario puede adquirir la condición de «Premium»
(9,99 €/mes, $9.99 USD, S/.16.90 PEN, $36 ARS o
$99 MXN) o «Unlimited» (4,99 €/mes, $4.99 USD
$18 ARS o $49 MXN).
La «Premium» permite a los miembros escuchar las
novedades antes de su lanzamiento y antes que los
usuarios de las opciones gratuitas de Spotify; se puede
oír el catálogo musical en dispositivos móviles con iOS,
Android, Windows Phone y Symbian OS; es posible la
escucha sin conexión a la red de ciertas pistas
previamente seleccionadas y ofrece mayor calidad de
reproducción. Con Spotify Unlimited solo se podrán
escuchar los temas en un ordenador y siempre con
conexión a Internet. La diferencia de las versión Free
respecto a la versión Unlimited es que esta última no
tiene anuncios publicitarios, tampoco restricciones
temporales ni límite de reproducciones.
Desde junio de 2016 estos son los tipos de suscripción
de Spotify:
[[PASTING TABLES IS NOT SUPPORTED]]Cambios en el
mercado musical[editar]
Desde finales de la década del 90, la eclosión de Internet
produjo una crisis en la industria discográfica derivada
de la caída de ventas de soportes digitales. Esta crisis
dejó evidente la necesidad de un nuevo modelo de
negocio en un contexto en el que la música se convierte
en un servicio dejando atrás su materialidad como
producto físico. 21 A raíz de esto nacen plataformas de
descarga de música de pago. Empresas cómo Spotify
han legitimado el acceso a la música online mediante el
streaming. Una propuesta que da acceso inmediato a 30
millones de títulos musicales (estos varían en función
del país). Hoy en día hay alrededor de 100 millones de
títulos publicados 22, con lo cual Spotify no contiene ni
el 30% de la totalidad. Aun así, el usuario puede tener la
sensación de disponer de una infinidad de opciones
puesto que no hay tiempo físico en una vida para
escuchar todas ellas.
A pesar de la gran difusión del streaming, todavía
existen tiendas de vinilos.23 Algunos consumidores de
vinilos dicen no haber cambiado al formato digital por
no perder la calidad del formato analógico. Otros echan
en falta la curación de contenidos en internet y prefieren
comprar productos verificados por los productores.24
Estos consumidores también aprecian la experiencia de
buscar, abrir, poder ver y exponer los vinilos. Estas son
sensaciones que se pierden en Spotify.
Piratería[editar]
Junto a la posibilidad de comprar descargas musicales
se expandieron plataformas de descarga gratuita e ilegal
de contenidos con copyright. De esta forma el mercado
musical pasa a ser online. El modelo de Spotify legitima
consumir y compartir contenido online sin la necesidad
de descargarlo. Spotify ha reducido las descargas pirata
de música. 25 Los no dispuestos a pagar por escuchar
música tienen la opción de utilizar la versión gratuita
(con algunas restricciones como anuncios de
publicidad). Gracias a la publicidad incluida pueden
pagar a los artistas, que no serían pagados mediante las
descargas pirata.
Controversias[editar]
Algunas bandas musicales y artistas se han negado, en
principio, a permitir que su música se añada al servicio
de Spotify,26 aunque en estos casos la compañía firmó
acuerdos con la mayoría de casas discográficas. El 28
de enero de 2009 Spotify anunció que se realizarán
varios cambios en la oferta musical del programa, por
las que se eliminarían algunas canciones de los artistas
que no estuvieran de acuerdo con aparecer allí y se
añadirían restricciones regionales a algunos temas.27
Spotify ha concebido una formula de pago a los artistas
en función de la cantidad de “streamings” de su música
sobre la cantidad total de “streamings”. Lo cual es
equivalente a entre 7 y 10 céntimos por streaming. 28.
Comparando a 1,40$ que pueden ganar por cada CD, es
flagrante que los streaming reducen las ganancias de
los artistas.
Con respecto a la oferta del catálogo, el representante
de Spotify en España, Lutz Emmerich, indicó en una
entrevista que la compañía no corre ningún riesgo y que
el catálogo musical se ampliará mediante la firma de
acuerdos con todas las discográficas posibles por lo
que la tendencia será a ampliar catálogo y no a
reducirlo.29
Uso de datos[editar]
En Spotify cada usuario tiene una playlist personal “Tu
descubrimiento semanal” en función de la música
escuchada recientemente que funciona mediante
algoritmos capaces de relacionar los gustos personales
a los de otros. Lo cual puede conllevar al efecto burbuja,
en el cual la música es automáticamente elegida para
nosotros y nos impide descubrir más allá. Por otro lado
la recopilación de datos sobre lo que escucha cada
usuario puede ser utilizado para estrategias de
marketing (por ejemplo para atraer a determinados
grupos)30. Se desconocen estos algoritmos y el uso que
hace Spotify de dichos datos a pesar de que los
sociólogos escritores de “Spotify Teardown: Inside the
Black Box of Streaming Music” hayan intentado
entenderlos. El uso del Big data es algo que preocupa a
muchos usuarios de productos en la red hoy en día.
Que es una Base de Datos de una pagina Web
Base de Datos Web
Base de Datos Web es una herramienta que organiza y
administra la información de forma sencilla a través de
una interfaz Web.
¿Para qué sirve?
Para organizar la información de manera fácil y
sencilla dentro de un entorno colaborativo.
Para mantener las bases de datos integradas a las
herramientas de segmentación y envíos masivos de
comunicaciones.
Para controlar el flujo de información que los
usuarios pueden manejar a través de grupos de
visualización.
Para generar listas o reportes que puedan ser
utilizados en las estrategias comunicacionales de la
empresa o en la emisión de resultados y métricas
para la toma de decisiones.
Para llevar un control de las actividades realizadas
en la base de datos a través del Log de Auditoría.
Para optimizar procesos comunicacionales.
Beneficios
Los beneficios de la herramienta serán clasificadas en 4
grandes áreas:
Fácil de usar:
Está relacionado con lo amigable y lo intuitivo de las
interfaces de la aplicación para: Realizar la carga de
datos en las tablas de la base de datos; el uso de las
herramientas de búsquedas y segmentación y la
posibilidad de generar aplicaciones para acceder
rápidamente a la información contenida en la base de
datos.
Configurable:
La flexibilidad y facilidad para realizar las
configuraciones en las bases de datos permiten al
usuario: Crear un campo nuevo en la base de datos,
establecer relaciones entre bases de datos y seleccionar
unos tipos de datos que han sido discretizados para que
el usuario no necesite desarrollar ninguno. Además, la
exportación e importación de datos no necesita de una
configuración detallada debido a que el sistema guía al
usuario en el momento de configurar cualquiera de los
procesos mencionados.
El manejo de la permisología, la categorización y la
gestión de plantillas forman parte del proceso de
configuración de las bases de datos por lo que su
ejecución mantiene la premisa de la facilidad expresada
anteriormente.
Integrable
La integración del sistema de bases de datos se puede
realizar tanto con sistemas externos como con otros
módulos de la herramienta, a través de servicios web
que son invisibles al usuario.
Conectada
El manejo de la información involucra la unicidad de
registros de la Base de Datos y la posibilidad de revisión
y consulta de la data en tiempo real, debido a la
posibilidad de automatizar plataformas de
comunicación.
Características
Ordena la información en campos y registros.
Tiene la capacidad de hacer segmentaciones de la
base de datos.
Puede hacer búsquedas simples o avanzadas.
Importa y exporta información desde y hacia otros
programas.
Tiene indicadores gráficos que hacen más fácil el
análisis de la data.
Posee la opción de generar aplicaciones que faciliten
el acceso a la base de datos.
Crea grupos de visualización para restringir la vista y
la edición de campos específicos de una base de
datos.
Configura equipos de trabajo para controlar el
acceso de otros usuarios a la información contenida
en la base de datos.
Configura tipos de datos para la generación de los
campos en base a las necesidades de la empresa.
Conexión desde otros sistemas a través de
WebServices.
Tiene una interfaz que guía paso a paso al usuario.
Posibilidad de acceder a los historiales de las
herramientas de Email, SMS y Llamadas para poder
realizar búsquedas y segmentaciones a partir de las
bases de datos que hayan sido utilizadas para el
envío de mensajes a través de estos medios.
Preguntas frecuentes
¿Qué es la categoría de una base de datos?
Es el lugar donde se guardan las bases de datos con la
finalidad de organizarlas y facilitar su búsqueda.
¿Qué es el código de una base de datos?
Es un texto escrito en el lenguaje de programación, que
identifica y diferencia a una base de datos de otra.
Además, este código a diferencia del nombre, debe ser
único para que el sistema pueda reconocer la base de
datos a la cual pertenece.
¿Qué es una plantilla?
Conjunto predefinido de formas prediseñadas que
establece la estructura necesaria para publicar
contenido rápidamente. Página pre-desarrollada que es
empleada para crear nuevas páginas con el mismo
diseño, patrón o estilo.
Perfiles de usuario
Los siguientes perfiles de usuario que pueden utilizar la
aplicación son:
Usuario
Permisos asignados:
Acceso a Base de datos
Administrador
Permisos asignados:
Acceso a Base de datos
Administrar Base de datos
Súper Administrador
Permisos asignados:
Acceso a Base de datos
Administrar Base de datos
Acceso a todas las BD
 Aplicaciones de base de datos en la Web (Nancy
Chávez)
¿Cuáles son las aplicaciones más importantes de una
base de datos en la WEB?
·        Comercio electrónico.
·        Servicios al cliente (por ejemplo seguimiento de
paquetes postales)
·        Servicios financieros.
·        Búsqueda de información.
·        Acceso remoto a bases de datos.
·        Bases de datos compartidas (intranets)
·        Creación de documentos HTML personalizados
(sobre la marcha)
·        Distribución multimedia.
·        Seguimiento de visitantes.
¿En las bases de datos debe restringirse el acceso a la
información?
Sí, dentro de las Bases de Datos pueden existir
informaciones restringidas según autorizaciones. Los
Usuarios de estas bases de datos a través de Internet se
conectan a la red y abren el Navegador en la URL
determinada; introducen su nombre de Usuario y clave;
acceden a un menú o índice principal donde pueden
navegar por las distintas partes; Pueden hacer
consultas, adiciones, actualizaciones o borrados, según
el grado de autorización. Estos Datos son actualizados
en tiempo real y están al segundo a disposición de los
otros Usuarios concurrentes y posteriores.
La identificación del usuario es una de las formas de
guardar la seguridad.  Las identidades y permisos de
usuarios están definidas en los archivos de control de
acceso.  Pero la seguridad e integridad total de los datos
puede conservarse permitiendo el acceso a distintos
campos de una base de datos, solamente a usuarios
autorizados para ello.  En este sentido los datos pueden
ser presentados a través del Web de una forma segura y
con mayor impacto en todos los usuarios de la red
mundial.
Mencione ventajas de utilizar Base de Datos en la Web.
La Web es un medio para localizar enviar / recibir
información de diversos tipos, aún con las bases de
datos. En el ámbito competitivo es esencial ver las
ventajas que ésta vía electrónica proporciona para
presentar la información reduciendo costo y
almacenamiento de la información y aumentando la
rapidez de difusión de la misma.
Actualmente la Web permite acceder a bases de datos
desde cualquier parte del mundo.  Estas ofrecen a través
de la red un manejo dinámico y una gran flexibilidad de
los datos,  como ventajas que no podrían obtenerse a
través de otro medio informativo.
Otra ventaja de utilizar la Web es que no hay
restricciones en el Sistema Operativo que se debe usar,
permitiendo la conexión entre sí de las páginas Web
desplegadas en un Browser del Web que funciona en
una plataforma, con servidores de bases de datos
alojados en otra plataforma.  Además no hay necesidad
de cambiar el formato o la estructura de la información
dentro de las BD’s.
¿Qué es ASP y para qué sirve?
Con la tecnología Active Service Pages (ASP) se puede
crear un sitio activo que cambie cada semana, cada día
o cada hora si usted lo desea.  Si se tiene una bases de
datos de los productos y sus precios han cambiado
solamente hay que introducir la nueva bases de datos en
el servidor, y todas sus páginas estarán actualizadas.
Una base de datos permite crear una parte del sitio Web
restringido con clave de acceso.  Esto puede ser útil  si
se quiere crear fichas de información para los clientes
para los cuales no se tenga libre acceso, creando así su
propia Extranet.
Interfaces Web (Williams Solano)
 ¿Qué es una Interfaz Web?
Es aquella que contiene las especificaciones de la base
de datos necesarias para traducir las solicitudes
enviadas desde el cliente, a un formato que sea
reconocido por dicha base, además contiene toda la
información, estructura, variables y llamadas a
funciones, necesarias para comunicarse con la Base de
Datos.
 ¿Qué directrices se deben seguir para el diseño de
Interfaces Web?
·        Planteamiento General
·        Organización de la Información
·        Facilidad de navegación: Iconos y mapas sensibles
·        Agilidad en las tareas
·        Comodidad en la lectura
·        Consistencia
·        Accesibilidad
·        Evaluación del diseño.
¿Cuál es la estrategia más famosa para la creación de
aplicaciones de interacción con el Web?
Descargar aplicaciones o componentes funcionales que
se ejecutarán dentro del browser. Con ellas se realizará
un procesamiento complejo de lado del cliente, lo cual
requiere un gran esfuerzo para crear las piezas de la
aplicación. Estas estrategias poseen dos características
principales: garantizan la seguridad tanto en los
sistemas de distribución como en la comunicación que
se establece en tales aplicaciones.
 ¿Sobre que áreas gira el diseño de una aplicación Web?
El diseño de una aplicación Web gira alrededor de tres
áreas fundamentales:
El diseño de la interfaz de usuario debe encontrar un
justo equilibrio entre los tipos de  exploradores
admitidos, la estética de la aplicación y su facilidad
de uso. Al diseñar una interfaz para usar en Internet,
es necesario tener en cuenta la cantidad de tiempo
que una página tardará en descargarse a través de la
conexión más lenta que piense usar.
      Un diseño eficaz de la base de datos es crucial
para garantizar un tiempo de respuesta rápido por
parte del cliente. Para diseñar una base de datos
adecuada, es necesario distribuir apropiadamente
los datos entre la base de datos y el sistema de
archivos, normalizar de forma razonable las tablas
que no requieran combinaciones excesivas para
responder a las consultas, crear índices suficientes
para optimizar las consultas más frecuentes sin que
se utilice una cantidad de espacio de disco excesiva
y usar procedimientos almacenados para llevar a
cabo operaciones de base de datos frecuentes o
complejas. Para obtener una introducción a las
cuestiones relacionadas con el diseño de bases de
datos, consulte el apartado acerca de
consideraciones relativas al diseño de bases de
datos en el Kit de herramientas para el programador
de Microsoft SQL Server.
         Elaborar un plan de acceso a la base de datos
en el que se especifique qué páginas HTML
requieren contenido de base de datos puede ayudar
al diseñador a determinar qué páginas deben
generarse de forma totalmente dinámica mediante
secuencias de comandos de servidor y qué páginas
pueden crearse pseudo dinámicamente (mediante
herramientas como el Ayudante de Web de SQL
Server) para generar páginas estáticas de acuerdo
con una programación predeterminada.
 ¿Qué es una Interfaz de programación de aplicaciones
API?
Es un conjunto de rutinas, protocolos y herramientas
para construir aplicaciones de interfaz. API está
diseñado especialmente para los programadores, ya que
garantiza que todos los programas que utilizan API,
tendrán interfaces similares. Asimismo, esto le facilita al
usuario aprender la lógica de nuevos programas.
Tecnologías para la integración de bases datos web
(José Guerrero)
 ¿Cuál es la tecnología para la integración de base de
datos web que se ejecuta en tiempo real en un servidor
web en respuesta de un programa cliente?.
CGI (Common Gateway Interface)
 ¿Qué significa las siglas SQL?
Structured Query Language (Lenguaje de Consulta
Estructurado)
 Nombre los lenguajes de programación con los cuales
un programa CGI puede ser escrito:
C/C++, Pascal, Perl, TCL, Fortran, Visual Basic,
AppleScript, JavaScript y Delphi.
¿Qué es JDBC?
Es un API de Java, la cual permite conectar los
programas escritos en Java con la  base de datos.
 ¿Tecnología que permite conectividad abierta de base
de datos?
ODBC
¿Qué es JavaScript?
Es un lenguaje de scripts compacto basado en objetos y
orientado a eventos, el cual permite la realización de
aplicaciones de propósito general a través de la WWW y
aunque no esta diseñado para el desarrollo de grandes
aplicaciones es suficiente para la implementación de
aplicaciones WWW completas o interfaces WWW hacia
a otras más complejas. El JavaScript depende
únicamente del servidor web.
 Establezca las diferencias entre Java  y JavaScript.
JavaScript:
 ·        Interpretado (no compilado) en cliente.
·        Basado en objetos. Usan objetos, pero no clases ni
herencia.
·        Código integrado en el código HTML.
·        Enlazado Dinámico.
 Java:
Compilado en servidor antes de la ejecución del
cliente.
Programación orientado a objetos. Los applets
constan de clases objeto con herencia.
Applets diferenciados del código HTML.
Enlazados estáticos.
¿Qué es el modelo de tres capas del API  JDBC?
En este modelo, las instrucciones son enviadas a una
capa intermedia que se encarga de enviar las sentencias
SQL a la Base de Datos. El manejador  de Base de Datos
procesa las sentencias y retorna los resultados a la capa
intermedia que se encarga de enviarlos al usuario.
 ¿Qué es ODBC?
Es un tipo de arquitectura con la cual los datos
existentes son independientes de la plataforma o del
formato.
Lenguajes para el manejo de base de datos en la web
(Marlon García)
 ¿Qué es el XML?
Es el estándar de Extensible Markup Language. XML no
es más que un conjunto de reglas para definir etiquetas
semánticas que nos organizan un documento en
diferentes partes. XML es un metalenguaje que define la
sintaxis utilizada para definir otros lenguajes de
etiquetas estructurados.
¿Qué es el Perl?
PERL significa Practical Extraction and Report
Language, algo así como lenguaje práctico de extracción
y de informes.  PERL es un lenguaje interpretado,
aunque en realidad, el intérprete de PERL, como todos
los intérpretes modernos, compila los programas antes
de ejecutarlos. Por eso se habla de scripts, y no de
programas, concepto referido principalmente a
programas compilados al lenguaje máquina nativo del
ordenador y sistema operativo en el que se ejecuta.
 ¿Qué es el HTML?
El HTML (HipertText Markup Language) o Lenguaje de
enlaces hipertexto es un sistema  que se encarga de
definir tipos de documentos estructurados y lenguajes
de marcas para representar esos mismos documentos.
El término HTML se suele referir a ambas cosas, tanto al
tipo de documento como al lenguaje de marcas.
 ¿Cómo se procesa un programa Perl?
Perl procesa el programa en varias fases:
1. Examinar la línea para buscar swiches.
2. Ejecución previa del programa.
3. Compilación.
4. Ejecución carnuda (ejecuta el código intermedio,
hasta encontrar exit o hasta que se acabe el archivo).
5. Ejecución final.
 ¿Qué es un lenguaje de marcas?
Las marcas son códigos que indican a un programa
cómo debe tratar su contenido y así, si se desea que un
texto aparezca con un formato determinado, dicho texto
debe ir delimitado por la correspondiente marca que
indique como debe ser mostrado en pantalla o impreso.
Y lo mismo ocurre con todas las demás características
de cualquier texto. Ejemplos pueden tenerlos en mente
los usuarios de WordPerfect.
Nombre algunas aplicaciones del XLM.
Office, Oracle, Explorer
Seguridad de Componentes que manejan Base de Datos
(Frandy Alfonso)
 ¿Qué ofrece un corta fuego como medio de seguridad
para la Base de datos?
·        Aislamiento. La misión de un cortafuegos es aislar
su red privada de Internet, restringiendo el acceso
hacia/desde su red sólo a ciertos servicios, a la vez que
analiza todo el tráfico que pasa a través de él.
·        Cuello de botella. El cortafuegos se constituye en
un cuello de botella, que mantiene a los atacantes y
peligros alejados de la red a proteger; prohíbe en los dos
sentidos servicios susceptibles a ataques; y proporciona
protección ante algunos tipos de ataques basados en el
enrutamiento de paquetes.
·        Auditoria y registro de uso. El cortafuegos
constituye un buen lugar donde recopilar información
sobre el uso de la red. En su calidad de punto único de
acceso, el cortafuegos puede registrar toda la actividad
entre la red exterior y la interior.
·        Seguridad de contenidos. Existen otras amenazas
como los virus y el contenido activo malicioso, frente a
las cuales los mejores cortafuegos ofrecen una
protección limitada. La inspección antivirus del material
transmitido a través de servicios como el correo
electrónico, la Web o FTP es una característica
incorporada por un número cada vez mayor de
cortafuegos.
 Tipos de seguridad de bases de Datos.
Los tipos de seguridad que son necesarios en un
desarrollo informático, estos son:
·        Seguridad lógica: este nivel de seguridad implica
mantener la integridad y consistencia de los datos en la
base de datos cuando se realicen las operaciones de
altas, bajas y modificaciones en la base de datos del
sistema.
·        Seguridad física: este nivel de seguridad implica
mantener la integridad física de los archivos donde se
almacena la base de datos y el log de transacciones, en
el disco del servidor. Será implementado con
procedimientos de resguardo, back-up, y restauración.
Dichos procedimientos serán realizados periódicamente
por el administrador de la aplicación.
·        Seguridad de acceso: este nivel de seguridad
implica restringir el acceso a los datos por parte de
usuarios no autorizados. Será implementado tanto en la
base de datos como en la aplicación. La administración
de la seguridad se realiza con un módulo especialmente
diseñado para esa tarea.
 ¿Cuáles son las técnicas de copia de seguridad que
utilizan las Bases de Datos en la Web?
En general, hay tres técnicas de copia de seguridad y
son:
Copia de seguridad sin conexión (en frío):
La base de datos se cierra limpiamente y se pone fuera
de conexión. El software de copia de seguridad
independiente copia entonces los archivos en los
dispositivos de copia de seguridad. Cuando la copia
finaliza, la base de datos se puede poner en conexión.
Los datos dejan de estar disponibles desde el momento
en que la base de datos comienza a cerrarse hasta que
se pone de nuevo en conexión.
Copia de seguridad en conexión (en caliente):
El sistema de administración de la base de datos se está
ejecutando y la base de datos está en conexión. Sin
embargo, no se está teniendo acceso a la base de datos
propiamente dicha y, por lo tanto, no está disponible
para que la usen las aplicaciones durante la copia de
seguridad.
Copia de seguridad en conexión activa:
La base de datos está en conexión y se usa
activamente. La copia de seguridad se ejecuta durante
el procesamiento normal de transacciones. No se
requiere ninguna pausa para la copia de seguridad.
 ¿Cuáles son las medidas que se deben tomar para
evitar el acceso no autorizado a la base de datos?
Para proteger el acceso a las tablas, puede elegir de
entre las siguientes opciones:
·  Cambiar el perfil de usuario que emplea para acceder
a un recurso por otro perfil de usuario que ya tenga
autorización sobre las tablas.
·  Añadir autorización para acceder a las tablas al perfil
de usuario utilizado.
·  Utilizar una combinación formada por los dos métodos
anteriores.
 ¿Qué es una “puerta trasera” en base de datos?
Una puerta trasera es una forma no documentada de
ganar acceso a un sistema informático, lo que
normalmente implica usar una contraseña secreta. El
fallo permite a un posible atacante cambiar la
información de la base de datos y usar programas de
todo tipo, lo que podría causar resultados desastrosos
para el sistema.
 ¿A qué hace referencia seguridad de componentes en
base de datos?
Se refiere a la protección de datos contra el acceso no
autorizado. Estas base de datos, programas y datos se
pueden asegurar entregando números de identificación
y contraseñas a los usuarios autorizados
Arquitectura de base de datos para la web
– Navegador y Servidor
– Navegador y Servidor, Incorpora una Base de Datos,
Una típica transacción Web con base de datos. Por
ejemplo una petición HTTP, listado de libros de un autor
en particular.
Servidores Web con motor PHP están en un servidor y
en otro servidor la Base de Datos MYSQL, Ideal esta
disposición de servidores.
Glosario
Categoría: Es el lugar donde se guardan las bases de
datos con la finalidad de organizarlas y facilitar su
búsqueda.
Código de una base de datos: Es un texto escrito en
el lenguaje de programación, que identifica y
diferencia a una base de datos de otra. Además, este
código a diferencia del nombre, debe ser único para
que el sistema pueda reconocer la base de datos a la
cual pertenece.
Plantilla o Template: Conjunto predefinido de formas
prediseñadas que establece la estructura necesaria
para publicar contenido rápidamente. Página pre-
desarrollada que es empleada para crear nuevas
páginas con el mismo diseño, patrón o estilo.
El Common Gateway Interface (CGI)Actualmente,
ésta es la solución que más se está utilizando para la
creación de interfaces Web/DBMS. Fue probada por
primera vez en el servidor NCSA.Se ha comprobado
que si el Servidor Web recibe un URL con una llave,
para devolver un documento HTML como respuesta,
tendrá que cargar el servicio (programa) que le
indique las variables de ambiente y de la forma
HTML. La mayoría de las veces dicha llave es el “cgi-
bin”.
Entre las ventajas de la programación CGI, se tiene
su sencillez, ya que es muy fácil de entender, además
de ser un lenguaje de programación independiente,
ya que los escritos CGI pueden elaborarse en varios
lenguajes.
También es un estándar para usarse en todos los
servidores Web, y funcionar bajo una arquitectura
independiente, ya que ha sido creado para trabajar
con cualquier arquitectura de servidor Web.
Como la aplicación CGI se encuentra funcionando de
forma independiente, no pone en peligro al servidor,
en cuanto al cumplimiento de todas las tareas que
éste se encuentre realizando, o al acceso del estado
interno del mismo.
Pero el CGI presenta cierta desventaja en su
eficiencia, debido a que el Servidor Web tiene que
cargar el programa CGI y conectar y desconectar con
la base de datos cada vez que se recibe una
requisición. Además, no existe un registro del estado
del servidor, sino que todo hay que hacerlo
manualmente.
Recopilado por:
Yaney Aponte
Fuente:
http://www.monografias.com/trabajos24/bases-de-
datos/bases-de-datos.shtml
http://www.danaconnect.com/wiki/index.php
/Base_de_datos_web
http://www.mailxmail.com/curso-php-mysql-
sql-8/arquitectura-base-datos-web
http://www.uca.edu.sv/investigacion/bdweb
/tecnolog.html
Una base de datos es un conjunto de datos
pertenecientes a un mismo contexto y almacenados
sistemáticamente para su posterior uso. En este
sentido; una biblioteca puede considerarse una base de
datos compuesta en su mayoría por documentos y
textos impresos en papel e indexados para su consulta.
Actualmente, y debido al desarrollo tecnológico de
campos como la informática y la electrónica, la mayoría
de las bases de datos están en formato digital, siendo
este un componente electrónico, por tanto se ha
desarrollado y se ofrece un amplio rango de soluciones
al problema del almacenamiento de datos.
Hay programas denominados sistemas gestores de
bases de datos, abreviado SGBD (del inglés Database
Management System o DBMS), que permiten almacenar
y posteriormente acceder a los datos de forma rápida y
estructurada. Las propiedades de estos DBMS, así como
su utilización y administración, se estudian dentro del
ámbito de la informática.
Las aplicaciones más usuales son para la gestión de
empresas e instituciones públicas; También son
ampliamente utilizadas en entornos científicos con el
objeto de almacenar la información experimental.
Aunque las bases de datos pueden contener muchos
tipos de datos, algunos de ellos se encuentran
mutuamente protegidos por las leyes de varios países.
Por ejemplo en España, los datos personales se
encuentran protegidos por la Ley Orgánica de Protección
de Datos de Carácter Personal (LOPD), en México por la
Ley Federal de Transparencia y Acceso a la Información
Pública Gubernamental y en Argentina la Ley de
Protección de Datos Personales.1
En Argentina el Código Penal sanciona ciertas
conductas relacionadas con una base de datos: acceder
ilegítimamente a un banco de datos personales,
proporcionar o revelar información registrada en un
archivo o en un banco de datos personales cuyo secreto
estuviere obligado a guardar por ley o insertar o hacer
insertar datos en un archivo de datos personales. Si el
autor es funcionario público, sufre además pena de
inhabilitación especial.  
Clasificación de bases de datos[editar]
Las bases de datos pueden clasificarse de varias
maneras, de acuerdo al contexto que se esté
manejando, la utilidad de las mismas o las necesidades
que satisfagan.
Según la variabilidad de la base de datos[editar]Bases
de datos estáticas[editar]
Son bases de datos únicamente de lectura, utilizadas
principalmente para almacenar datos históricos que
posteriormente se pueden utilizar para estudiar el
comportamiento de un conjunto de datos a través del
tiempo, realizar proyecciones, tomar decisiones y
realizar análisis de datos para inteligencia empresarial.
Bases de datos dinámicas[editar]
Son bases de datos donde la información almacenada
se modifica con el tiempo, permitiendo operaciones
como actualización, borrado y edición de datos, además
de las operaciones fundamentales de consulta. Un
ejemplo, puede ser la base de datos utilizada en un
sistema de información de un supermercado.
Según el contenido[editar]Bases de datos
bibliográficas[editar]
Solo contienen una subrogante (representante) de la
fuente primaria, que permite localizarla. Un registro
típico de una base de datos bibliográfica contiene
información sobre el autor, fecha de publicación,
editorial, título, edición, de una determinada publicación,
etc. Puede contener un resumen o extracto de la
publicación original, pero nunca el texto completo,
porque si no, estaríamos en presencia de una base de
datos a texto completo (o de fuentes primarias —ver
más abajo). Como su nombre lo indica, el contenido son
cifras o números. Por ejemplo, una colección de
resultados de análisis de laboratorio, entre otras.
Bases de datos de texto completo[editar]
Almacenan las fuentes primarias, como por ejemplo,
todo el contenido de todas las ediciones de una
colección de revistas científicas.
Directorios[editar]
Un ejemplo son las guías telefónicas en formato
electrónico.
Estos directorios se pueden clasificar en dos grandes
tipos dependiendo de si son personales o empresariales
(llamadas páginas blancas o amarillas
respectivamente).
Los directorios empresariales hay de tres tipos:
Tienen nombre de la empresa y dirección1.
Contienen teléfono y los más avanzado contienen
correo electrónico
2.
Contienen datos como facturación o número de
empleados además de códigos nacionales que
ayudan a su distinción.
3.
Los directorios personales solo hay de un tipo, ya que
leyes como la LOPD en España protege la privacidad de
los usuarios pertenecientes al directorio.
La búsqueda inversa está prohibida en los directorios
personales (a partir de un número de teléfono saber el
titular de la línea).
Bases de datos o "bibliotecas" de información química o
biológica[editar]
Son bases de datos que almacenan diferentes tipos de
información proveniente de la química, las ciencias de la
vida o médicas. Se pueden considerar en varios
subtipos:
Las que almacenan secuencias de nucleótidos o
proteínas.
Las bases de datos de rutas metabólicas.
Bases de datos de estructura, comprende los
registros de datos experimentales sobre estructuras
3D de biomoléculas.
Bases de datos clínicas.
Bases de datos bibliográficas (biológicas, químicas,
médicas y de otros campos): PubChem, Medline,
EBSCOhost.
Modelos de bases de datos[editar]
Además de la clasificación por la función de las bases
de datos, estas también se pueden clasificar de acuerdo
a su modelo de administración de datos.
Un modelo de datos es básicamente una "descripción"
de algo conocido como contenedor de datos (algo en
donde se guardan los datos), así como de los métodos
para almacenar y recuperar datos de esos
contenedores. Los modelos de datos no son cosas
físicas: son abstracciones que permiten la
implementación de un sistema eficiente de base de
datos; por lo general se refieren a algoritmos, y
conceptos matemáticos.
Algunos modelos con frecuencia utilizados en las bases
de datos:
Bases de datos jerárquicas[editar]
En este modelo los datos se organizan en forma de
árbol invertido (algunos dicen raíz), en donde un nodo
padre de información puede tener varios hijos. El nodo
que no tiene padres es llamado raíz, y a los nodos que
no tienen hijos se los conoce como hojas.
Las bases de datos jerárquicas son especialmente útiles
en el caso de aplicaciones que manejan un gran
volumen de información y datos muy compartidos
permitiendo crear estructuras estables y de gran
rendimiento.
Una de las principales limitaciones de este modelo es su
incapacidad de representar eficientemente la
redundancia de datos.
Base de datos de red[editar]
Este es un modelo ligeramente distinto del jerárquico; su
diferencia fundamental es la modificación del concepto
de nodo: se permite que un mismo nodo tenga varios
padres (posibilidad no permitida en el modelo
jerárquico).
Fue una gran mejora con respecto al modelo jerárquico,
ya que ofrecía una solución eficiente al problema de
redundancia de datos; pero, aun así, la dificultad que
significa administrar la información en una base de
datos de red ha significado que sea un modelo utilizado
en su mayoría por programadores más que por usuarios
finales.
Bases de datos transaccionales[editar]
Son bases de datos cuyo único fin es el envío y
recepción de datos a grandes velocidades, estas bases
son muy poco comunes y están dirigidas por lo general
al entorno de análisis de calidad, datos de producción e
industrial, es importante entender que su fin único es
recolectar y recuperar los datos a la mayor velocidad
posible, por lo tanto la redundancia y duplicación de
información no es un problema como con las demás
bases de datos, por lo general para poderlas aprovechar
al máximo permiten algún tipo de conectividad a bases
de datos relacionales.
Un ejemplo habitual de transacción es el traspaso de
una cantidad de dinero entre cuentas bancarias.
Normalmente se realiza mediante dos operaciones
distintas, una en la que se debita el saldo de la cuenta
origen y otra en la que acreditamos el saldo de la cuenta
destino. Para garantizar la atomicidad del sistema (es
decir, para que no aparezca o desaparezca dinero), las
dos operaciones deben ser atómicas, es decir, el
sistema debe garantizar que, bajo cualquier
circunstancia (incluso una caída del sistema), el
resultado final es que, o bien se han realizado las dos
operaciones, o bien no se ha realizado ninguna.
Bases de datos relacionales[editar]
Este es el modelo utilizado en la actualidad para
representar problemas reales y administrar datos
dinámicamente. Tras ser postulados sus fundamentos
en 1970 por Edgar Frank Codd,2 de los laboratorios IBM
en San José (California), no tardó en consolidarse como
un nuevo paradigma en los modelos de base de datos.
Su idea fundamental es el uso de "relaciones". Estas
relaciones podrían considerarse en forma lógica como
conjuntos de datos llamados "tuplas". Pese a que esta
es la teoría de las bases de datos relacionales creadas
por Codd, la mayoría de las veces se conceptualiza de
una manera más fácil de imaginar. Esto es pensando en
cada relación como si fuese una tabla que está
compuesta por registros (las filas de una tabla), que
representarían las tuplas, y campos (las columnas de
una tabla).
En este modelo, el lugar y la forma en que se almacenen
los datos no tienen relevancia (a diferencia de otros
modelos como el jerárquico y el de red). Esto tiene la
considerable ventaja de que es más fácil de entender y
de utilizar para un usuario esporádico de la base de
datos. La información puede ser recuperada o
almacenada mediante "consultas" que ofrecen una
amplia flexibilidad y poder para administrar la
información.
El lenguaje más habitual para construir las consultas a
bases de datos relacionales es SQL, Structured Query
Language o Lenguaje Estructurado de Consultas, un
estándar implementado por los principales motores o
sistemas de gestión de bases de datos relacionales.
Durante su diseño, una base de datos relacional pasa
por un proceso al que se le conoce como normalización
de una base de datos.
Bases de datos multidimensionales[editar]
Son bases de datos ideadas para desarrollar
aplicaciones muy concretas, como creación de Cubos
OLAP. Básicamente no se diferencian demasiado de las
bases de datos relacionales (una tabla en una base de
datos relacional podría serlo también en una base de
datos multidimensional), la diferencia está más bien a
nivel conceptual; en las bases de datos
multidimensionales los campos o atributos de una tabla
pueden ser de dos tipos, o bien representan
dimensiones de la tabla, o bien representan métricas
que se desean aprender.
Bases de datos orientadas a objetos[editar]
Este modelo, bastante reciente, y propio de los modelos
informáticos orientados a objetos, trata de almacenar en
la base de datos los objetos completos (estado y
comportamiento).
Una base de datos orientada a objetos es una base de
datos que incorpora todos los conceptos importantes
del paradigma de objetos:
Encapsulación - Propiedad que permite ocultar la
información al resto de los objetos, impidiendo así
accesos incorrectos o conflictos.
Herencia - Propiedad a través de la cual los objetos
heredan comportamiento dentro de una jerarquía de
clases.
Polimorfismo - Propiedad de una operación mediante
la cual puede ser aplicada a distintos tipos de
objetos.
En bases de datos orientadas a objetos, los usuarios
pueden definir operaciones sobre los datos como parte
de la definición de la base de datos. Una operación
(llamada función) se especifica en dos partes. La
interfaz (o signatura) de una operación incluye el
nombre de la operación y los tipos de datos de sus
argumentos (o parámetros). La implementación (o
método) de la operación se especifica separadamente y
puede modificarse sin afectar la interfaz. Los programas
de aplicación de los usuarios pueden operar sobre los
datos invocando a dichas operaciones a través de sus
nombres y argumentos, sea cual sea la forma en la que
se han implementado. Esto podría denominarse
independencia entre programas y operaciones.
SQL:2003, es el estándar de SQL92 ampliado, soporta
los conceptos orientados a objetos y mantiene la
compatibilidad con SQL92.
Bases de datos documentales[editar]
Permiten la indexación a texto completo, y en líneas
generales realizar búsquedas más potentes, sirven para
almacenar grandes volúmenes de información de
antecedentes históricos. Tesaurus es un sistema de
índices optimizado para este tipo de bases de datos.
Bases de datos deductivas[editar]
Un sistema de base de datos deductiva, es un sistema
de base de datos pero con la diferencia de que permite
hacer deducciones a través de inferencias. Se basa
principalmente en reglas y hechos que son almacenados
en la base de datos. Las bases de datos deductivas son
también llamadas bases de datos lógicas, a raíz de que
se basa en lógica matemática. Este tipo de base de
datos surge debido a las limitaciones de la Base de
Datos Relacional de responder a consultas recursivas y
de deducir relaciones indirectas de los datos
almacenados en la base de datos.
Lenguaje[editar]
Utiliza un subconjunto del lenguaje Prolog llamado
Datalog el cual es declarativo y permite al ordenador
hacer deducciones para contestar a consultas
basándose en los hechos y reglas almacenados.
Ventajas[editar]
Uso de reglas lógicas para expresar las consultas.
Permite responder consultas recursivas.
Cuenta con negaciones estratificadas
Capacidad de obtener nueva información a través de
la ya almacenada en la base de datos mediante
inferencia.
Uso de algoritmos que optimizan las consultas.
Soporta objetos y conjuntos complejos.
Fases[editar]
Fase de Interrogación: se encarga de buscar en la
base de datos informaciones deducibles implícitas.
Las reglas de esta fase se denominan reglas de
derivación.
Fase de Modificación: se encarga de añadir a la base
de datos nuevas informaciones deducibles. Las
reglas de esta fase se denominan reglas de
generación.
Interpretación[editar]
Encontramos dos teorías de interpretación de las bases
de datos deductiva por lo cual consideramos las reglas y
los hechos como axiomas. Los hechos son axiomas
base que se consideran como verdaderos y no
contienen variables. Las reglas son axiomas deductivos
ya que se utilizan para deducir nuevos hechos.
Teoría de Modelos: una interpretación es llamada
modelo cuando para un conjunto específico de
reglas, estas se cumplen siempre para esa
interpretación. Consiste en asignar a un predicado
todas las combinaciones de valores y argumentos de
un dominio de valores constantes dado. A
continuación se debe verificar si ese predicado es
verdadero o falso.
Mecanismos[editar]
Existen dos mecanismos de inferencia:
Ascendente: donde se parte de los hechos y se
obtiene nuevos aplicando reglas de inferencia.
Descendente: donde se parte del predicado (objetivo
de la consulta realizada) e intenta encontrar
similitudes entre las variables que nos lleven a
hechos correctos almacenados en la base de datos.
Sistema de Gestión de bases de datos distribuida
(SGBD)[editar]
La base de datos y el software SGBD pueden estar
distribuidos en múltiples sitios conectados por una red.
Hay de dos tipos:
1. Distribuidos homogéneos: utilizan el mismo SGBD en
múltiples sitios.
2. Distribuidos heterogéneos: Da lugar a los SGBD
federados o sistemas multibase de datos en los que los
SGBD participantes tienen cierto grado de autonomía
local y tienen acceso a varias bases de datos
autónomas preexistentes almacenados en los SGBD,
muchos de estos emplean una arquitectura cliente-
servidor.
Estas surgen debido a la existencia física de organismos
descentralizados. Esto les da la capacidad de unir las
bases de datos de cada localidad y acceder así a
distintas universidades, sucursales de tiendas, etc.
Consulta a base de datos[editar]
Una consulta es el método para acceder a la
información en las bases de datos. Con las consultas se
puede modificar, borrar, mostrar y agregar datos en una
base de datos, también pueden utilizarse como origen
de registro para formularios. Para esto se utiliza un
Lenguaje de consulta.
Las consultas a la base de datos se realizan a través de
un Lenguaje de manipulación de datos, el lenguaje de
consultas a base de datos más utilizado es SQL.
El escritorio, que es la pantalla que ve después de iniciar
la sesión en Windows, es una de las características más
importantes del equipo. El escritorio puede contener
accesos directos a los programas, documentos,
carpetas e, incluso, impresoras que utilice con más
frecuencia. En el escritorio también puede haber
contenido activo, como un canal información bursátil o
de noticias.
La barra de tareas es la parte interior que  recorer el
 escritorio de la pantalla completo.  y espicado a el error
el creador  parte principales de la barra de tareas son el
boton de inicio, los icono anclado, la barras de ibiomas.
Los iconos son pequeños símbolos con un nombre que
los identifica y que representan carpetas, documentos y
aplicaciones. Seleccionando dichos iconos es posible
llegar al elemento real que se ha seleccionado.
El boton de inicio es el boton que esta lado izquerdo de
la barra de tareas el escritorio
El menú Inicio fue una lista personalizada de programas
para el usuario para poner en marcha, así como una lista
de documentos abiertos
La ventanas es un área visual, normalmente de forma
rectangular, que contiene algún tipo de interfaz de
usuario, mostrando la salida y permitiendo la entrada de
datos
El panel de control de la interfaz gráfica de Windows que
permite a los usuarios que vean y que manipulen ajustes
y controles del sistema básico, tales como Agregar
nuevo hardware, Agregar o quitar programas, Cuentas
de usuario y opciones de accesibilidad
Internet Explorer (anteriormente llamado Windows
Internet Explorer y Microsoft Internet Explorer), y
conocido comúnmente como IE, es un navegador web
desarrollado por Microsoft para el sistema operativo
Microsoft Windows desde 1995. Es el navegador web
más utilizado de Internet desde 1999, con un pico
máximo de cuota de utilización del 95% entre el 2002 y
2003. Sin embargo, dicha cuota de mercado ha
disminuido paulatinamente con los años debido a una
renovada competencia por parte de otros navegadores,
logrando aproximadamente entre el 30% y 54% en 2012
Un archivo o fichero informático es un conjunto de bits
que son almacenados en un dispositivo.
Un archivo es identificado por un nombre y la
descripción de la carpeta o directorio que lo contiene. A
los archivos informáticos se les llama así porque son los
equivalentes digitales de los archivos escritos en libros,
tarjetas, libretas, papel o microfichas del entorno de
oficina tradicional. Los archivos informáticos facilitan
una manera de organizar los recursos usados para
almacenar permanentemente datos en un sistema
informático virtual
AeroSnap es una sencilla utilidad para el escritorio
basada en una nueva característica de Windows 7 con la
cual podrás redimensionar a media pantalla, maximizar
o minimizar las ventanas, tan solo arrastrandolas hacia
los costados o hacia la parte superior o inferior del
escritorio.
Microsoft Word es el procesador de textos más
conocido hoy en día y una parte imprescindible de
Microsoft Office.
Ya sea desde cero, o usando la multitud de plantillas de
que dispone, Microsoft Word te ayudará a crear, editar y
enriquecer textos con una gran selección de
herramientas y contenido complementario.
avast! es un software antivirus de la firma
checa avast software. Cuenta con varias versiones, que
cubren desde el usuario doméstico hasta el corporativo.
Microsoft Excel es una aplicación distribuida por
Microsoft Office para hojas de cálculo. Este programa
es desarrollado y distribuido por Microsoft, y es utilizado
normalmente en tareas financieras y contables.
Microsoft Office Publisher) es la aplicación de
autoedición o DTP (por DeskTop Publishing en inglés) de
Microsoft Corporation. A menudo es considerado como
un programa para principiantes o de «nivel de entrada»
(entry level), que difiere del procesador de textos
Microsoft Word en que se hace hincapié (que se
refuerza) en el diseño y la maquetación de las páginas,
más que en el proceso y corrección de textos
Microsoft Access es un sistema de gestión de bases de
datos incluido en el paquete de programas de Microsoft
Office. Es igualmente un gestor de datos que recopila
información relativa a un asunto o propósito particular,
como el seguimiento de pedidos de clientes o el
mantenimiento de una colección de música. Access es
un programa informático en entornos de empresa, que
permite la creación y gestión de bases de datos, así
como su modificación, control y mantenimiento.
Microsoft Office OneNote, o simplemente OneNote, es
un producto de software gratuito desarrollado por
Microsoft para facilitar la toma de notas, la recopilación
de información, y la colaboración multiusuario. OneNote
permite colocar notas en páginas de dos dimensiones y
ofrece la posibilidad de agregar dibujos, diagramas,
fotografías, elementos multimedia, audio, vídeo, e
imágenes escaneadas. También permite crear una
impresora virtual a fin de enviar archivos o documentos
desde otros programas. Ofrece además el intercambio
de notas a través del uso compartido de archivos o
WebDAV. El producto fue lanzado en 2003 e inicialmente
no estaba incluido en Microsoft Office.
El teclado de la computadora
es un dispositivo o periférico de entrada, en parte
inspirado en el teclado de las máquinas de escribir, que
utiliza una disposición de botones o teclas, para que
actúen como palancas mecánicas o interruptores
electrónicos que envían información a lacomputadora.
Después de las tarjetas perforadas y las cintas de papel,
la interacción a través de los teclados, al estilo teletipo,
se convirtió en el principal dispositivo de entrada para
los ordenadores.
El teclado tiene aproximadamente entre 99 y 107 teclas,
y está dividido en cuatro bloques:
Bloque de funciones: va desde la tecla F1 a F12, en
tres bloques de cuatro: de F1 a F4, de F5 a F8 y de
F9 a F12. Funcionan de acuerdo al programa o
1.
aplicación que esté abierto. Por ejemplo, en muchos
programas al presionar la tecla F1 se accede a la
ayuda asociada a ese programa. Además, a la
izquierda de este bloque suele estar la tecla Esc.
Bloque alfanumérico: está ubicado en la parte
inferior del bloque de funciones, contiene los
números arábigos del 1 al 0 y el alfabeto organizado
como en una máquina de escribir, además de
algunas teclas especiales, como por ejemplo Tab ↹
(tabulador),⇪ Bloq Mayús (Bloq Mayús), ⇧ Mayús
(tecla Shift), Ctrl, ⊞ Win (tecla Windows), Alt,
espaciador, Alt Gr, ↵ Entrar (tecla Enter, entrar o
Intro).
2.
Bloque especial: está ubicado a la derecha del
bloque alfanumérico, contiene algunas teclas
especiales como Impr Pant o PetSis,Bloq Despl,
Pausa, Insert, Supr, Inicio, Fin, RePág, AvPág, y las
flechas direccionales que permiten mover el punto
de inserción en las cuatro direcciones (↑, ↓, ←, →).
3.
Bloque numérico: está ubicado a la derecha del
bloque especial, se activa al presionar la tecla Bloq
Num, contiene los números arábigos organizados
como en una calculadora con el fin de facilitar la
digitación de cifras. Además, contiene el punto o
coma decimal ., y los signos de las cuatro
operaciones básicas: suma +, resta -, multiplicación
* y división /; también contiene una tecla de Intro o ↵
Entrar.
4.
Windows 8 es una versión de Microsoft Windows, línea
de sistemas operativos desarrollada por Microsoft para
su uso en computadoras personales, incluidas
computadoras de escritorio en casa y de
negocios,computadoras portátiles, netbooks, tabletas,
servidores y centros multimedia. El principal cambio es
la polémica decisión de eliminar Menú Inicio, existente
desde Windows 95 como estándar de facto en cómo
presentar aplicaciones en interfaces gráficas. El 2 de
abril de 2014, Microsoft reconoció el error de la
eliminación del menú de inicio y anunció que lo volverían
a implementar en la siguiente versión de Windows,3 el
cual llegó en el 2015.4
Añade soporte para microprocesadores ARM, además
de los microprocesadores tradicionales x86 de Intel y
AMD. Su interfaz de usuarioha sido modificada para
hacerla más adecuada para su uso con pantallas
táctiles, además de los tradicionales ratón y teclado. El
efecto Aero Glass de su predecesor Windows 7 no está
presente en este sistema operativo, siendo reemplazado
por nuevos efectos planos para ventanas y botones con
un color simple.
El 29 de julio de 2015, Microsoft presentó su sucesor,
Windows 10, orientado a integrar de una mejor forma el
sistema operativo en todos los dispositivos, desde
ordenadores, tabletas y hasta teléfonos inteligentes,
destacando el regreso de uno de sus elementos más
característicos, el desaparecido Menú Inicio.5 6 7
Windows 10 es el último sistema operativo desarrollado
por Microsoftcomo parte de la familia de sistemas
operativos Windows NT.5 Fue dado a conocer
oficialmente en septiembre de 2014, seguido por una
breve presentación de demostración en el Build 2014.
Entró en fasebeta de prueba en octubre de 2014 y fue
lanzado al público en general el 29 de julio de 2015.6
Para animar su adopción, Microsoft anunció su
disponibilidad gratuita por un año desde su fecha de
lanzamiento, para los usuarios que cuenten con copias
genuinas de Windows 7 Service Pack 1 o Windows 8.1
Update. En junio de 2015 se habilitó una herramienta
que permite reservar esta actualización, dicha
herramienta notifica a cada usuario el momento en el
que estará lista la descarga de la actualización para su
dispositivo.7 Los participantes del programaWindows
Insider pueden recibir una licencia de Windows 10, pero
con ciertas condiciones.8
Esta edición introdujo una arquitectura de aplicaciones
«universales». Desarrolladas con la interfaz Continuum,
estas aplicaciones pueden ser diseñadas para
ejecutarse en todas las familias de productos
deMicrosoft con un código casi idéntico (incluyendo
computadoras personales, tabletas, teléfonos
inteligentes, sistemas embebidos, Xbox One, Surface
Hub y HoloLens). La interfaz de usuario fue revisado
para realizar transiciones entre una interfaz orientada al
ratón y una interfaz orientada a la pantalla táctil basadas
en dispositivos de entrada disponibles (particularmente
en tablets). Ambas interfaces incluyen unmenú Inicio
actualizado que comprende un diseño similar a
Windows 7con las baldosas de Windows 8. También se
introduce la Vista de Tareas, un sistema de escritorio
virtual, el navegador web Microsoft Edge y otras
aplicaciones nuevas o actualizadas, un soporte
integrado para iniciar sesión a través de huella digital o
reconocimiento facial llamado Windows Hello, nuevas
características de seguridad para entornos
empresariales, DirectX 12 y WDDM 2.0 para mejorar las
capacidades gráficas del sistema operativo para los
videojuegos.
Microsoft describió a Windows 10 tanto un sistema
operativo como un servicio que puede recibir
actualizaciones en curso para sus características y
funcionalidades, además con la habilidad en los
entornos empresariales para recibir actualizaciones no
críticas en un ritmo más lento, o un soporte a largo plazo
que solo recibe actualizaciones críticas, tales como
parches de seguridad, en el curso de vida de cinco años
de soporte general. Terry Myerson, vicepresidente
ejecutivo de Windows and Devices Group de Windows,
demostró que las metas de este modelo fue reducir la
fragmentación en toda la plataforma de Windows, como
Microsoft pretendía tener Windows 10 instalado en al
menos mil millones de dispositivos en los dos o tres
años después de su lanzamiento.9
Windows 10 recibió reseñas generalmente positivas en
el día de su lanzamiento. Los críticos elogiaron la
decisión deMicrosoft de retirar la interfaz de usuario
introducido por Windows 8 (incluyendo las aplicaciones
a pantalla completa y la pantalla Inicio)10 en un entorno
no táctil para proporcionar una interfaz más orientado al
escritorio en la misma línea de las versiones anteriores
de Windows, aunque la interfaz de usuario de
orientación táctil fue criticada por contener regresiones
hacia la interfaz de Windows 8. Los críticos también
elogiaron las mejoras para el software promocional de
Windows 10 sobre 8.1, la integración de Xbox Live, así
como la funcionalidad y capacidades de Cortana y la
sustitución de Internet Explorer con Microsoft Edge
(aunque el navegador fue criticado por encontrarse aún,
en estado de desarrollo).11 12
La mayor parte de la crítica cayó sobre las limitaciones
en el usuario para controlar algunas operaciones. En
este caso,Windows Update instala las actualizaciones
automáticamente. Se reportó una actualización errónea,
con el código KB3081424 lanzada en agosto de 2015,
que provocaba un error en el registro, esto pudo ser
prevenido facílmente por el usuario, pero al no estar
disponible dicha función, provocó molestias entre los
usuarios afectados.13 Solo en Windows 10 en sus
ediciones Pro y Enterprise se puede aplazar su
instalación. Preocupaciones por la privacidad también
fueron mencionadas por críticos y defensores al ver que
los ajustes por defecto permiten el envío de información
sobre el usuario a Microsoft y sus socios.
Una red de computadoras (también llamada red de
ordenadores, red de comunicaciones de datos, red
informática) es un conjunto de equipos informáticos y
softwareconectados entre sí por medio de dispositivos
físicos o inalámbricos que envían y reciben impulsos
eléctricos, ondas electromagnéticas o cualquier otro
medio para el transporte de datos, con la finalidad de
compartir información, recursos y ofrecer servicios.1
Como en todo proceso de comunicación, se requiere de
un emisor, un mensaje, un medio y un receptor. La
finalidad principal para la creación de una red de
ordenadores es compartir los recursos y la información
en la distancia, asegurar la confiabilidad y la
disponibilidad de la información, aumentar la velocidad
de transmisión de los datos y reducir el costo. Un
ejemplo es Internet, el cual es una gran red de millones
de ordenadores ubicados en distintos puntos del planeta
interconectados básicamente para compartir
información y recursos.
La estructura La estructura La estructura y el modo de
funcionamiento de las redes informáticas actuales
están definidos en varios estándares, siendo el más
importante y extendido de todos ellos el modelo TCP/IP
basado en el modelo de referencia OSI. Este último,
estructura cada red en siete capas con funciones
concretas pero relacionadas entre sí; en TCP/IP se
reducen a cuatro capas. Existen multitud de protocolos
repartidos por cada capa, los cuales también están
regidos por sus respectivos estándares.2
Historia[editar]
El primer indicio de redes de comunicación fue de
tecnología telefónica y telegráfica. En 1940 se
transmitieron datos desde la Universidad de Darmouth,
en Nuevo Hampshire, a Nueva York. A finales de la
década de 1960 y en los posteriores 70 fueron creados
los miniordenadores. En 1976, Apple introduce el Apple I,
uno de los primeros ordenadores personales. En 1981,
IBM introduce su primer PC. A mitad de la década de
1980 los PC comienzan a usar los módem para
compartir archivos con otros ordenadores, en un rango
de velocidades que comenzó en 1200 bps y llegó a los
56 kbps (comunicación punto a punto o dial-up), cuando
empezaron a ser sustituidos por sistema de mayor
velocidad, especialmente ADSL ADSL ADSL ADSL.
Descripción básica[editar]
La comunicación por medio de una red se lleva a cabo
en dos diferentes categorías: la capa física y la capa
lógica.
La capa física incluye todos los elementos de los que
hace uso un equipo para comunicarse con otros equipos
dentro de la red, como, por ejemplo, las tarjetas de red,
los cables, las antenas, etc.
La comunicación a través de la capa lógica se rige por
normas muy rudimentarias que por sí mismas resultan
de escasa utilidad. Sin embargo, haciendo uso de dichas
normas es posible construir los denominados
protocolos, que son normas de comunicación más
complejas (mejor conocidas como de alto nivel),
capaces de proporcionar servicios que resultan útiles.
Los protocolos son un concepto muy similar al de los
idiomas de las personas. Si dos personas hablan el
mismo idioma, es posible comunicarse y transmitir
ideas.
La razón más importante (quizá la única) sobre por qué
existe diferenciación entre la capa física y la lógica es
sencilla: cuando existe una división entre ambas, es
posible utilizar un número casi infinito de protocolos
distintos, lo que facilita la actualización y migración
entre distintas tecnologías.
Componentes básicos de las redes[editar]
Para poder formar una red se requieren elementos:
hardware, software y protocolos. Los elementos físicos
se clasifican en dos grandes grupos: dispositivos de
usuario final (hosts) y dispositivos de red. Los
dispositivos de usuario final incluyen los computadores,
impresoras, escáneres, y demás elementos que brindan
servicios directamente al usuario y los segundos son
todos aquellos que conectan entre sí a los dispositivos
de usuario final, posibilitando su intercomunicación.
El fin de una red es interconectar los componentes
hardware de una red , y por tanto, principalmente, los
ordenadores individuales, también denominados hosts,
a los equipos que ponen los servicios en la red, los
servidores, utilizando el cableado o tecnología
inalámbrica soportada por la electrónica de red y unidos
por cableado o radiofrecuencia. En todos los casos la
tarjeta de red se puede considerar el elemento
primordial, sea parte de un ordenador, de un
conmutador, de una impresora, etc. y sea de la
tecnología que sea (ethernet, Wi-Fi, Bluetooth, etc.)
Software[editar]
Sistema operativo de red: Permite la interconexión de
ordenadores para acceder a los servicios y recursos.
Al igual que un equipo no puede trabajar sin un
sistema operativo, una red de equipos no puede
funcionar sin un sistema operativo de red. En
muchos casos el sistema operativo de red es parte
del sistema operativo de los servidores y de los
clientes.
Software de aplicación: En última instancia, todos los
elementos se utilizan para que el usuario de cada
estación, pueda utilizar sus programas y archivos
específicos. Este software puede ser tan amplio
como se necesite ya que puede incluir procesadores
de texto, paquetes integrados, sistemas
administrativos de contabilidad y áreas afines,
sistemas especializados, correos electrónicos, etc. El
software adecuado en el sistema operativo de red
elegido y con los protocolos necesarios permiten
crear servidores para aquellos servicios que se
necesiten.
Hardware[editar]
Para lograr el enlace entre los ordenadores y los medios
de transmisión (cables de red o medios físicos para
redes alámbricas e infrarrojos o radiofrecuencias para
redes inalámbricas), es necesaria la intervención de una
tarjeta de red (NIC, Network interface controller), con la
cual se puedan enviar y recibir paquetes de datos desde
y hacia otros ordenadores, empleando un protocolo para
su comunicación y convirtiendo a esos datos a un
formato que pueda ser transmitido por el medio (bits,
-ceros y unos-). Cabe señalar que a cada tarjeta de red le
es asignado un identificador único por su fabricante,
conocido como dirección MAC (Media Access Control),
que consta de 48 bits (6 bytes). Dicho identificador
permite direccionar el tráfico de datos de la red del
emisor al receptor adecuado.
El trabajo del adaptador de red es el de convertir las
señales eléctricas que viajan por el cable (p. ej: red
Ethernet) o las ondas de radio (p. ej: red Wi-Fi) en una
señal que pueda interpretar el ordenador.
Estos adaptadores son unas tarjetas PCI que se
conectan en las ranuras de expansión del ordenador. En
el caso de ordenadores portátiles, estas tarjetas vienen
en formato PCMCIA o similares. En los ordenadores del
siglo XXI, tanto de sobremesa como portátiles, estas
tarjetas ya vienen integradas en la placa base.
Adaptador de red es el nombre genérico que reciben los
dispositivos encargados de realizar dicha conversión.
Esto significa que estos adaptadores pueden ser tanto
Ethernet, como wireless, así como de otros tipos como
fibra óptica, coaxial, etc. También las velocidades
disponibles varían según el tipo de adaptador; estas
pueden ser, en Ethernet, de 10, 100, 1000 Mbps o 10 000,
y en los inalámbricos, principalmente, de 11, 54,
300 Mbps.
Dispositivos de usuario final[editar]
Ordenadores personales: son los puestos de trabajo
habituales de las redes. Dentro de la categoría de
ordenadores, y más concretamente ordenadores
personales, se engloban todos los que se utilizan
para distintas funciones, según el trabajo que
realizan. Se incluyen desde las potentes estaciones
de trabajo para la edición de vídeo, por ejemplo,
hasta los ligeros equipos portátiles, conocidos como
netbooks, cuya función principal es la de navegar por
Internet. Las tabletas se popularizaron al final de la
primera década del siglo XXI, especialmente por el
éxito del iPad de Apple.
Terminal: muchas redes utilizan este tipo de equipo
en lugar de puestos de trabajo para la entrada de
datos. En estos solo se exhiben datos o se
introducen. Este tipo de terminales, trabajan unido a
un servidor, que es quien realmente procesa los
datos y envía pantallas de datos a los terminales.
Electrónica del hogar: las tarjetas de red empezaron
a integrarse, de forma habitual, desde la primera
década del siglo XXI, en muchos elementos
habituales de los hogares: televisores, equipos
multimedia, proyectores, videoconsolas, teléfonos
celulares, libros electrónicos, etc. e incluso en
electrodomésticos, como frigoríficos, convirtiéndolos
en partes de las redes junto a los tradicionales
ordenadores.
Impresoras: muchos de estos dispositivos son
capaces de actuar como parte de una red de
ordenadores sin ningún otro elemento, tal como un
print server, actuando como intermediario entre la
impresora y el dispositivo que está solicitando un
trabajo de impresión determinado. Los medios de
conectividad de estos dispositivos pueden ser
alámbricos o inalámbricos, dentro de este último
puede ser mediante: ethernet, Wi-Fi, infrarrojo o
bluetooth. En algunos casos se integran dentro de la
impresora y en otros por medio de convertidores
externos.
Otros elementos: escáneres, lectores de CD-ROM.
Servidores[editar]
Son los equipos que ponen a disposición de los clientes
los distintos servicios. En la siguiente lista hay algunos
tipos comunes de servidores y sus propósitos:
Servidor de archivos: almacena varios tipos de
archivo y los distribuye a otros clientes en la red.
Pueden ser servidos en distinto formato según el
servicio que presten y el medio: FTP, HTTP, etc.
Servidor de impresión: controla una o más
impresoras y acepta trabajos de impresión de otros
clientes de la red, poniendo en cola los trabajos de
impresión (aunque también puede cambiar la
prioridad de las diferentes impresiones), y realizando
la mayoría o todas las otras funciones que en un sitio
de trabajo se realizaría para lograr una tarea de
impresión si la impresora fuera conectada
directamente con el puerto de impresora del sitio de
trabajo.
Servidor de correo: almacena, envía, recibe, enruta y
realiza otras operaciones relacionadas con el
correo-e (e-mail) para los clientes de la red.
Servidor de fax: almacena, envía, recibe, enruta y
realiza otras funciones necesarias para la
transmisión, la recepción y la distribución apropiadas
de los fax, con origen y/o destino una Ordenador o un
dispositivo físico de telefax.
Servidor de telefonía: realiza funciones relacionadas
con la telefonía, como es la de contestador
automático, realizando las funciones de un sistema
interactivo para la respuesta de la voz, almacenando
los mensajes de voz, encaminando las llamadas y
controlando también la red o Internet, etc. Pueden
operar con telefonía IP o analógica.
Servidor proxy: realiza un cierto tipo de funciones en
nombre de otros clientes en la red para aumentar el
funcionamiento de ciertas operaciones (p. ej.,
prefetching y depositar documentos u otros datos
que se soliciten muy frecuentemente). También
«sirve» seguridad; esto es, tiene un firewall
(cortafuegos). Permite administrar el acceso a
Internet en una red de ordenadores permitiendo o
negando el acceso a diferentes sitios web,
basándose en contenidos, origen/destino, usuario,
horario, etc.
Servidor de acceso remoto (Remote Access Service,
RAS): controla las líneas de módems u otros canales
de comunicación de la red para que las peticiones
conecten una posición remota con la red, responden
las llamadas telefónicas entrantes o reconocen la
petición de la red y realizan los chequeos necesarios
de seguridad y otros procedimientos necesarios para
registrar a un usuario en la red. Gestionan las
entradas para establecer la redes virtuales privadas
(VPN).
Servidor web: almacena documentos HTML,
imágenes, archivos de texto, escrituras, y demás
material web compuesto por datos (conocidos
normalmente como contenido), y distribuye este
contenido a clientes que la piden en la red.
Servidor de streaming: servidores que distribuyen
multimedia de forma continua evitando al usuario
esperar a la descarga completa del fichero. De esta
forma se pueden distribuir contenidos tipo radio,
vídeo, etc. en tiempo real y sin demoras.
Servidor de reserva (standby server): tiene el
software de reserva de la red instalado y tiene
cantidades grandes de almacenamiento de la red en
discos duros u otras formas del almacenamiento
disponibles para que se utilice con el fin de
asegurarse de que la pérdida de un servidor principal
no afecte a la red. El servidor de reserva lo puede ser
de cualquiera de los otros tipos de servidor, siendo
muy habituales en los servidores de aplicaciones y
bases de datos.
Servidor de autenticación: es el encargado de
verificar que un usuario pueda conectarse a la red en
cualquier punto de acceso, ya sea inalámbrico o por
cable, basándose en el estándar 802.1x y puede ser
un servidor de tipo RADIUS.
Servidores para los servicios de red: estos equipos
gestionan aquellos servicios necesarios propios de
la red y sin los cuales no se podrían interconectar, al
menos de forma sencilla. Algunos de esos servicios
son: servicio de directorio para la gestión de los
usuarios y los recursos compartidos, Dynamic Host
Configuration Protocol (DHCP) para la asignación de
las direcciones IP en redes TCP/IP, Domain Name
System (DNS) para poder nombrar los equipos sin
tener que recurrir a su dirección IP numérica, etc.
Servidor de base de datos: permite almacenar la
información que utilizan las aplicaciones de todo
tipo, guardándola ordenada y clasificada y que puede
ser recuperada en cualquier momento y sobre la
base de una consulta concreta. Estos servidores
suelen utilizar lenguajes estandarízados para hacer
más fácil y reutilizable la programación de
aplicaciones, uno de los más populares es SQL.
Servidor de aplicaciones: ejecuta ciertas
aplicaciones. Usualmente se trata de un dispositivo
de software que proporciona servicios de aplicación
a los ordenadores cliente. Un servidor de
aplicaciones gestiona la mayor parte (o la totalidad)
de las funciones de lógica de negocio y de acceso a
los datos de la aplicación. Los principales beneficios
de la aplicación de la tecnología de servidores de
aplicación son la centralización y la disminución de
la complejidad en el desarrollo de aplicaciones.
Servidores de monitorización y gestión: ayudan a
simplificar las tareas de control, monitorización,
búsqueda de averías, resolución de incidencias, etc.
Permiten, por ejemplo, centralizar la recepción de
mensajes de aviso, alarma e información que emiten
los distintos elementos de red (no solo los propios
servidores). El SNMP es un de los protocolos más
difundidos y que permite comunicar elementos de
distintos fabricantes y de distinta naturaleza.
Y otros muchos dedicados a múltiples tareas, desde
muy generales a aquellos de una especificidad
enorme.
Almacenamiento en red[editar]
En las redes medianas y grandes el almacenamiento de
datos principal no se produce en los propios servidores
sino que se utilizan dispositivos externos, conocidos
como disk arrays (matrices de discos) interconectados,
normalmente por redes tipo SAN o Network-Attached
Storage (NAS). Estos medios permiten centralizar la
información, una mejor gestión del espacio, sistemas
redundantes y de alta disponibilidad.
Los medios de copia de seguridad suelen incluirse en la
misma red donde se alojan los medios de
almacenamiento mencionados más arriba, de esta
forma el traslado de datos entre ambos, tanto al hacer la
copia como las posibles restauraciones, se producen
dentro de esta red sin afectar al tráfico de los clientes
con los servidores o entre ellos.
Dispositivos de red[editar]
Los equipos informáticos descritos necesitan de una
determinada tecnología que forme la red en cuestión.
Según las necesidades se deben seleccionar los
elementos adecuados para poder completar el sistema.
Por ejemplo, si queremos unir los equipos de una oficina
entre ellos debemos conectarlos por medio de un
conmutador o un concentrador, si además hay un varios
portátiles con tarjetas de red Wi-Fi debemos conectar un
punto de acceso inalámbrico para que recoja sus
señales y pueda enviarles las que les correspondan, a su
vez el punto de acceso estará conectado al conmutador
por un cable. Si todos ellos deben disponer de acceso a
Internet, se interconectarán por medio de un router, que
podría ser ADSL, ethernet sobre fibra óptica, broadband,
etc.
Los elementos de la electrónica de red más habituales
son:
Conmutador de red (switch),
Enrutador (router),
Puente de red (bridge),
Puente de red y enrutador (brouter),
Punto de acceso inalámbrico (Wireless Access Point,
WAP).
Protocolos de redes[editar]
Existen diversos protocolos, estándares y modelos que
determinan el funcionamiento general de las redes.
Destacan el modelo OSI y el TCP/IP. Cada modelo
estructura el funcionamiento de una red de manera
distinta. El modelo OSI cuenta con siete capas muy
definidas y con funciones diferenciadas y el TCP/IP con
cuatro capas diferenciadas pero que combinan las
funciones existentes en las siete capas del modelo
OSI.3 Los protocolos están repartidos por las diferentes
capas pero no están definidos como parte del modelo
en sí sino como entidades diferentes de normativas
internacionales, de modo que el modelo OSI no puede
ser considerado una arquitectura de red.4
Modelo OSI[editar]
El modelo OSI (Open System Interconnection) fue
creado por la ISO y se encarga de la conexión entre
sistemas abiertos; esto es, sistemas abiertos a la
comunicación con otros sistemas. Los principios en los
que basó su creación eran: una mayor definición de las
funciones de cada capa, evitar agrupar funciones
diferentes en la misma capa y una mayor simplificación
en el funcionamiento del modelo en general.3
Este modelo divide las funciones de red en siete capas
diferenciadas:
[[PASTING TABLES IS NOT SUPPORTED]]Modelo
TCP/IP[editar]
Artículo principal: TCP/IP
Este modelo es el implantado actualmente a nivel
mundial: fue primero utilizado en ARPANET y es
utilizado actualmente a nivel global en Internet y redes
locales. Su nombre deriva de la unión de los nombres de
los dos principales protocolos que lo conforman: TCP en
la capa de transporte e IP en la capa de red.5 Se
compone de cuatro capas:
[[PASTING TABLES IS NOT SUPPORTED]]Otros
estándares[editar]
Existen otros estándares, más concretos, que definen el
modo de funcionamiento de diversas tecnologías de
transmisión de datos. La siguiente lista no es completa,
solo muestra algunos ejemplos:
[[PASTING TABLES IS NOT SUPPORTED]]Clasificación de
las redes[editar]
Una red puede recibir distintos calificativos de
clasificación sobre la base de distintas taxonomías:
alcance, tipo de conexión, tecnología, etc.
Por alcance[editar]
Red de área personal (Personal Area Network, PAN)
es una red de ordenadores usada para la
comunicación entre los dispositivos de el Ordenador
cerca de una persona.
Red inalámbrica de área personal (Wireless Personal
Area Network, WPAN), es una red de ordenadores
inalámbrica para la comunicación entre distintos
dispositivos (tanto ordenadores, puntos de acceso a
internet, teléfonos celulares, PDA, dispositivos de
audio, impresoras) cercanos al punto de acceso.
Estas redes normalmente son de unos pocos metros
y para uso personal, así como fuera de ella. El medio
de transporte puede ser cualquiera de los habituales
en las redes inalámbricas pero las que reciben esta
denominación son habituales en Bluetooth.
Red de área local (Local Area Network, LAN), es una
red que se limita a un área especial relativamente
pequeña tal como un cuarto, un solo edificio, una
nave, o un avión. Las redes de área local a veces se
llaman una sola red de localización. No utilizan
medios o redes de interconexión públicos.
Red de área local inalámbrica (Wireless Local Area
Network, WLAN), es un sistema de comunicación de
datos inalámbrico flexible, muy utilizado como
alternativa a las redes de área local cableadas o
como extensión de estas.
Red de área de campus (Campus Area Network,
CAN), es una red de ordenadores de alta velocidad
que conecta redes de área local a través de un área
geográfica limitada, como un campus universitario,
una base militar, hospital, etc. Tampoco utiliza
medios públicos para la interconexión.
Red de área metropolitana (Metropolitan Area
Network, MAN) es una red de alta velocidad (banda
ancha) que da cobertura en un área geográfica más
extensa que un campus, pero aun así limitado. Por
ejemplo, una red que interconecte los edificios
públicos de un municipio dentro de la localidad por
medio de fibra óptica.
Red de área amplia (Wide Area Network, WAN), son
redes informáticas que se extienden sobre un área
geográfica extensa utilizando medios como:
satélites, cables interoceánicos, Internet, fibras
ópticas públicas, etc.
Red de área de almacenamiento (Storage Area
Network, SAN), es una red concebida para conectar
servidores, matrices (arrays) de discos y librerías de
soporte, permitiendo el tránsito de datos sin afectar
a las redes por las que acceden los usuarios.
Red de área local virtual (Virtual LAN, VLAN), es un
grupo de ordenadores con un conjunto común de
recursos a compartir y de requerimientos, que se
comunican como si estuvieran adjuntos a una
división lógica de redes de ordenadores en la cual
todos los nodos pueden alcanzar a los otros por
medio de broadcast (dominio de broadcast) en la
capa de enlace de datos, a pesar de su diversa
localización física. Este tipo surgió como respuesta a
la necesidad de poder estructurar las conexiones de
equipos de un edificio por medio de software,10
permitiendo dividir un conmutador en varios
virtuales.
Por tipo de conexión[editar]
Medios guiados[editar]
Cable de par trenzado: es una forma de conexión en
la que dos conductores eléctricos aislados son
entrelazados para tener menores interferencias y
aumentar la potencia y disminuir la diafonía de los
cables adyacentes. Dependiendo de la red se pueden
utilizar, uno, dos, cuatro o más pares trenzados.
Cable coaxial: se utiliza para transportar señales
electromagnéticas de alta frecuencia, el cual posee
un núcleo sólido (generalmente de cobre) o de hilos,
recubierto por un material dieléctrico y una malla o
blindaje, que sirven para aislar o proteger la señal de
información contra las interferencias o ruido exterior.
Fibra óptica: es un medio de transmisión empleado
habitualmente en redes de datos; un hilo muy fino de
material transparente, vidrio o materiales plásticos,
por el que se envían pulsos de luz que representan
los datos a transmitir.
Medios no guiados[editar]
Red por radio es aquella que emplea la
radiofrecuencia como medio de unión de las diversas
estaciones de la red.
Red por infrarrojos (Infrared Data Association, IrDA),
permiten la comunicación entre dos nodos, usando
una serie de ledes infrarrojos para ello. Se trata de
emisores/receptores de ondas infrarrojas entre
ambos dispositivos, cada dispositivo necesita al otro
para realizar la comunicación por ello es escasa su
utilización a gran escala. No disponen de gran
alcance y necesitan de visibilidad entre los
dispositivos.
Red por microondas, es un tipo de red inalámbrica
que utiliza microondas como medio de transmisión.
Los protocolos más frecuentes son: el IEEE 802.11b
y transmite a 2,4 GHz, alcanzando velocidades de
11 Mbps (Megabits por segundo); el rango de 5,4 a
5,7 GHz para el protocolo IEEE 802.11a; el IEEE
802.11n que permite velocidades de hasta
600 Mbps; etc.
Por relación funcional[editar]
Cliente-servidor es la arquitectura que consiste
básicamente en un cliente que realiza peticiones a
otro programa (el servidor) que le da respuesta.
Peer-to-peer, o red entre iguales, es aquella red de
ordenadores en la que todos o algunos aspectos
funcionan sin clientes ni servidores fijos, sino una
serie de nodos que se comportan como iguales entre
sí.
Por tecnología[editar]
Red punto a punto (point to point, PtP) es aquella en
la que existe multitud de conexiones entre parejas
individuales de máquinas. Este tipo de red requiere,
en algunos casos, máquinas intermedias que
establezcan rutas para que puedan transmitirse
paquetes de datos. El medio electrónico habitual
para la interconexión es el conmutador, o switch.
Red de Difusión (broadcast) se caracteriza por
transmitir datos por un solo canal de comunicación
que comparten todas las máquinas de la red. En este
caso, el paquete enviado es recibido por todas las
máquinas de la red pero únicamente la destinataria
puede procesarlo. Los equipos unidos por un
concentrador (hub), forman redes de este tipo.
Red multipunto, dispone de una línea o medio de
comunicación cuyo uso está compartido por todas
las terminales en la red. La información fluye de
forma bidireccional. Los terminales pueden estar
separados geográficamente.
Por topología física[editar]
Topologías físicas de red.
Red en bus (bus o «conductor común») o Red lineal
(line): se caracteriza por tener un único canal de
comunicaciones (denominado bus, troncal o
backbone) al cual se conectan los diferentes
dispositivos.
Red en anillo' (ring) o Red circular: cada estación está
conectada a la siguiente y la última está conectada a
la primera. Además, puede compararse con la Red en
cadena margarita (dDaisy chain).
Red en estrella (star): las estaciones están
conectadas directamente a un punto central y todas
las comunicaciones se han de hacer necesariamente
a través de este.
Red en malla (mesh): cada nodo está conectado a
todos los otros.
Red en árbol (tree) o Red jerárquica: los nodos están
colocados en forma de árbol. Desde una visión
topológica, la conexión en árbol es parecida a una
serie de redes en estrella interconectadas salvo en
que no tiene un nodo central.
Red híbrida o Red mixta: se da cualquier
combinación de las anteriores. Por ejemplo, circular
de estrella, bus de estrella, etc.
Por la direccionalidad de los datos[editar]
Simplex o unidireccional: un equipo terminal de datos
transmite y otro recibe.
Half-duplex o semidúplex: el método o protocolo de
envío de información es bidireccional pero no
simultáneo bidireccional, solo un equipo transmite a
la vez.
Full-duplex o dúplex: los dos equipos involucrados en
la comunicación lo pueden hacer de forma
simultánea, transmitir y recibir.
Por grado de autentificación[editar]
Red privada: es una red que solo puede ser usada por
algunas personas y que está configurada con clave
de acceso personal.[cita requerida]
Red de acceso público: una red pública se define
como una red que puede usar cualquier persona y no
como las redes que están configuradas con clave de
acceso personal. Es una red de ordenadores
interconectados, capaz de compartir información y
que permite comunicar a usuarios sin importar su
ubicación geográfica.[cita requerida]
Por grado de difusión[editar]
Una intranet es una red privada de ordenadores que
utiliza tecnología de Internet para compartir dentro
de una organización parte de sus sistemas de
información y sistemas operacionales.
La Internet es un conjunto descentralizado de redes
de comunicación interconectadas que utilizan la
familia de protocolos TCP/IP, garantizando que las
redes físicas heterogéneas que la componen
funcionen como una red lógica única, de alcance
mundial.
Por servicio o función[editar]
Red comercial proporciona soporte e información
para una empresa u organización con ánimo de
lucro.
Red educativa proporciona soporte e información
para una organización educativa dentro del ámbito
del aprendizaje.
Red para el proceso de datos proporciona una
interfaz para intercomunicar equipos que vayan a
realizar una función de cómputo conjunta
Una red de área local o LAN (por las siglas en inglés de
Local Area Network) es una red de computadoras que
abarca un área reducida a una casa, un departamento o
un edificio.1
La topología de red define la estructura de una red. Una
parte de la definición topológica es la topología física,
que es la disposición real de los cables o medios. La
otra parte es la topología lógica, que define la forma en
que los hosts acceden a los medios para enviar datos.
Topologías físicas[editar]
Las topologías más comúnmente usadas son las
siguientes:
Una topología de bus usa solo un cable backbone
que debe terminarse en ambos extremos. Todos los
host se conectan directamente a este backbone. Su
funcionamiento es simple y es muy fácil de instalar,
pero es muy sensible a problemas de tráfico, y un
fallo o una rotura en el cable interrumpe todas las
transmisiones.
La topología de anillo conecta los nodos punto a
punto, formando un anillo físico y consiste en
conectar varios nodos a una red que tiene una serie
de repetidores. Cuando un nodo transmite
información a otro la información pasa por cada
repetidor hasta llegar al nodo deseado. El problema
principal de esta topología es que los repetidores son
unidireccionales (siempre van en el mismo sentido).
Después de pasar los datos enviados a otro nodo por
dicho nodo, continua circulando por la red hasta
llegar de nuevo al nodo de origen, donde es
eliminado. Esta topología no tiene problemas por la
congestión de tráfico, pero si hay una rotura de un
enlace, se produciría un fallo general en la red.
La topología en estrella conecta todos los nodos con
un nodo central. El nodo central conecta
directamente con los nodos, enviándoles la
información del nodo de origen, constituyendo una
red punto a punto. Si falla un nodo, la red sigue
funcionando, excepto si falla el nodo central, que las
transmisiones quedan interrumpidas.
Una topología en estrella extendida conecta estrellas
individuales entre sí mediante la conexión de
concentradores (hubs) o switches. Esta topología
puede extender el alcance y la cobertura de la red.
Una topología jerárquica es similar a una estrella
extendida. Pero en lugar de conectar los hubs o
switches entre sí, el sistema se conecta con un
computador que controla el tráfico de la topología.
La topología de malla se implementa para
proporcionar la mayor protección posible para evitar
una interrupción del servicio. El uso de una topología
de malla en los sistemas de control en red de una
planta nuclear sería un ejemplo excelente. En esta
topología, cada host tiene sus propias conexiones
con los demás hosts. Aunque Internet cuenta con
múltiples rutas hacia cualquier ubicación, no adopta
la topología de malla completa.
La topología de árbol tiene varias terminales
conectadas de forma que la red se ramifica desde un
servidor base. Un fallo o rotura en el cable
interrumpe las transmisiones.
La topología de doble anillo es una de las tres
principales topologías. Las estaciones están unidas
una con otra formando un círculo por medio de un
cable común. Las señales circulan en un solo sentido
alrededor del círculo, regresándose en cada nodo. El
doble anillo es una variación del anillo que se utiliza
principalmente en redes de fibra como FDDI es el
doble anillo.
La topología mixta es aquella en la que se aplica una
mezcla entre alguna de las otras topologías: bus,
estrella o anillo. Principalmente las podemos
encontrar dos topologías mixtas: Estrella-Bus y
Estrella-Anillo. Los cables más utilizados son el cable
de par trenzado, el cable coaxial y la fibra óptica.
Topologías lógicas[editar]
La topología lógica de una red es la forma en que los
hosts se comunican a través del medio. Los dos tipos
más comunes de topologías lógicas son broadcast y
transmisión de tokens.
La topología broadcast simplemente significa que
cada host envía sus datos hacia todos los demás
hosts del medio de red. No existe un orden que las
estaciones deban seguir para utilizar la red. Es por
orden de llegada, es como funciona Ethernet.
La topología transmisión de tokens controla el
acceso a la red mediante la transmisión de un token
electrónico a cada host de forma secuencial. Cuando
un host recibe el token, ese host puede enviar datos
a través de la red. Si el host no tiene ningún dato para
enviar, transmite el token al siguiente host y el
proceso se vuelve a repetir. Dos ejemplos de redes
que utilizan la transmisión de tokens son Token Ring
y la interfaz de datos distribuida por fibra (FDDI).
Arcnet es una variación de Token Ring y FDDI. Arcnet
es la transmisión de tokens en una topología de bus.
Tipos[editar]
La oferta de redes de área local es muy amplia,
existiendo soluciones casi para cualquier circunstancia.
Podemos seleccionar el tipo de cable, la topología e
incluso el tipo de transmisión que más se adapte a
nuestras necesidades. Sin embargo, de toda esta oferta
las soluciones más extendidas son tres: Ethernet, Token
Ring y Arcnet.
Comparativa de los tipos de redes[editar]
Para elegir el tipo de red que más se adapte a nuestras
pretensiones, tenemos que tener en cuenta distintos
factores, como son el número de estaciones, distancia
máxima entre ellas, dificultad del cableado, necesidades
de velocidad de respuesta o de enviar otras
informaciones aparte de los datos de la red y, como no,
el costo.
Como referencia para los parámetros anteriores,
podemos realizar una comparación de los tres tipos de
redes comentados anteriormente. Para ello,
supongamos que el tipo Ethernet y Arcnet se instalan
con cable coaxial y Token Ring con par trenzado
apantallado. En cuanto a las facilidades de instalación,
Arcnet resulta ser la más fácil de instalar debido a su
topología. Ethernet y Token Ring necesitan de mayor
reflexión antes de proceder con su implementación.
En cuanto a la velocidad, Ethernet es la más rápida, entre
10 y 1000 Mbit/s, Arcnet funciona a 2,5 Mbit/s y Token
Ring a 4 Mbit/s. Actualmente existe una versión de
Token Ring a 16 Mbit/s, pero necesita un tipo de
cableado más caro.
En cuanto al precio, Arcnet es la que ofrece un menor
costo; por un lado porque las tarjetas que se instalan en
los PC para este tipo de redes son más baratas, y por
otro, porque el cableado es más accesible. Token Ring
resulta ser la que tiene un precio más elevado, porque,
aunque las placas de los PC son más baratas que las de
la red Ethernet, sin embargo su cableado resulta ser
caro, entre otras cosas porque se precisa de una MAU
por cada grupo de ocho usuarios más.
Componentes[editar]
Servidor: el servidor es aquel o aquellas
computadoras que van a compartir sus recursos
hardware y software con los demás equipos de la
red. Sus características son potencia de cálculo,
importancia de la información que almacena y
conexión con recursos que se desean compartir.
Estación de trabajo: las computadoras que toman el
papel de estaciones de trabajo aprovechan o tienen a
su disposición los recursos que ofrece la red así
como los servicios que proporcionan los Servidores
a los cuales pueden acceder.
Gateways o pasarelas: es un hardware y software
que permite las comunicaciones entre la red local y
grandes computadoras (mainframes). El gateway
adapta los protocolos de comunicación del
mainframe (X25, SNA, etcétera) a los de la red, y
viceversa.
Bridges o puentes de red: es un hardware y software
que permite que se conecten dos redes locales entre
sí. Un puente interno es el que se instala en un
servidor de la red, y un puente externo es el que se
hace sobre una estación de trabajo de la misma red.
Los puentes también pueden ser locales o remotos.
Los puentes locales son los que conectan a redes de
un mismo edificio, usando tanto conexiones internas
como externas. Los puentes remotos conectan redes
distintas entre sí, llevando a cabo la conexión a
través de redes públicas, como la red telefónica,
RDSI o red de conmutación de paquetes.
Tarjeta de red: también se denominan NIC (Network
Interface Card). Básicamente realiza la función de
intermediario entre la computadora y la red de
comunicación. En ella se encuentran grabados los
protocolos de comunicación de la red. La
comunicación con la computadora se realiza
normalmente a través de las ranuras de expansión
que éste dispone, ya sea ISA, PCI o PCMCIA. Aunque
algunos equipos disponen de este adaptador
integrado directamente en la placa base.
El medio: constituido por el cableado y los
conectores que enlazan los componentes de la red.
Los medios físicos más utilizados son el cable de
par trenzado, cable coaxial y la fibra óptica (cada vez
en más uso esta última).
Concentradores de cableado: una LAN en bus usa
solamente tarjetas de red en las estaciones y
cableado coaxial para interconectarlas, además de
los conectores, sin embargo este método complica el
mantenimiento de la red ya que si falla alguna
conexión toda la red deja de funcionar. Para impedir
estos problemas las redes de área local usan
concentradores de cableado para realizar las
conexiones de las estaciones, en vez de distribuir las
conexiones el concentrador las centraliza en un
único dispositivo manteniendo indicadores
luminosos de su estado e impidiendo que una de
ellas pueda hacer fallar toda la red.
Existen dos tipos de concentradores de cableado:
Concentradores pasivos: actúan como un simple
concentrador cuya función principal consiste en
interconectar toda la red.
1.
Concentradores activos: además de su función
básica de concentrador también amplifican y
regeneran las señales recibidas antes de ser
enviadas y ejecutadas.
2.
Los concentradores de cableado tienen dos tipos de
conexiones: para las estaciones y para unirse a otros
concentradores y así aumentar el tamaño de la red. Los
concentradores de cableado se clasifican dependiendo
de la manera en que internamente realizan las
conexiones y distribuyen los mensajes. A esta
característica se le llama topología lógica.Existen dos
tipos principales:
Concentradores con topología lógica en bus (HUB):
estos dispositivos hacen que la red se comporte
como un bus enviando las señales que les llegan por
todas las salidas conectadas.
1.
Concentradores con topología lógica en anillo
(MAU): se comportan como si la red fuera un anillo
enviando la señal que les llega por un puerto al
siguiente.
2.
Realmente no hay un límite máximo de computadoras,
dependerá entre otras cosas de los switches que se
utilicen. No obstante, considerando que se tuvieran muy
buenos equipos y bien organizada la red, entre 400 y 500
sería lo máximo que podría soportar la LAN sin que
empezara a degradarse notablemente el rendimiento de
la red a causa del propio tráfico de broadcast.
Una copia de seguridad, respaldo, copy backup, copia de
respaldo, copia de reserva (del inglés backup) en
ciencias de la información e informática es una copia de
los datos originales que se realiza con el fin de disponer
de un medio para recuperarlos en caso de su pérdida.
Las copias de seguridad son útiles ante distintos
eventos y usos: recuperar los sistemas informáticos y
los datos de una catástrofe informática, natural o
ataque; restaurar una pequeña cantidad de archivos que
pueden haberse eliminado accidentalmente, corrompido,
infectado por un virus informático u otras causas;
guardar información histórica de forma más económica
que los discos duros y además permitiendo el traslado a
ubicaciones distintas de la de los datos originales; etc.
El proceso de copia de seguridad se complementa con
otro conocido como restauración de los datos, que es la
acción de leer y grabar en la ubicación original u otra
alternativa los datos requeridos. La pérdida de datos es
muy común, el 66 % de los usuarios de Internet han
sufrido una seria pérdida de datos en algún momento.1
Ya que los sistemas de respaldo contienen por lo menos
una copia de todos los datos que vale la pena salvar,
deben de tenerse en cuenta los requerimientos de
almacenamiento. La organización del espacio de
almacenamiento y la administración del proceso de
efectuar la copia de seguridad son tareas complicadas.
Para brindar una estructura de almacenamiento es
conveniente utilizar un modelo de almacenaje de datos.
En noviembre de 2010 existían muchos tipos diferentes
de dispositivos para almacenar datos que eran útiles
para hacer copias de seguridad, cada uno con sus
ventajas y desventajas a tener en cuenta para elegirlos,
como duplicidad, seguridad en los datos y facilidad de
traslado.
Antes de que los datos sean enviados a su lugar de
almacenamiento se lo debe seleccionar, extraer y
manipular. Se han desarrollado muchas técnicas
diferentes para optimizar el procedimiento de efectuar
los backups. Estos procedimientos incluyen entre otros
optimizaciones para trabajar con archivos abiertos y
fuentes de datos en uso y también incluyen procesos de
compresión, cifrado, y procesos de desduplicación,
entendiéndose por esto último a una forma específica
de compresión donde los datos superfluos son
eliminados. Muchas organizaciones ang
Elección, acceso, y manipulación de datos[editar]Decidir
qué se va a incluir en la copia de seguridad es un
proceso más complejo de lo que parece[editar]
Si copiamos muchos datos redundantes agotamos la
capacidad de almacenamiento disponible rápidamente.
Si no realizamos una copia de seguridad de los
suficientes datos, podría perderse información crítica.
La clave está en guardar copias de seguridad sólo de
aquello que se ha modificado.
Archivos a copiarSólo copiar los ficheros que se hayan
modificado o movidoDepósito del sistema de
ficherosCopiar el sistema de ficheros que tienen los
ficheros copiados. Esto normalmente implica desmontar
el sistema de ficheros y hacer funcionar un programa
como un depósito. Esto es también conocido como
copia de seguridad particionada en bruto. Este tipo de
copia de seguridad tiene la posibilidad de hacer
funcionar una copia más rápida que la simple copia de
ficheros. El rasgo de algunos software de depósitos es
la habilidad para restaurar ficheros específicos de la
imagen del depósito.Control de CambiosAlgunos
sistemas de ficheros poseen un bit de archivo para cada
fichero este nos indica si recientemente ha sido
modificado. Algunos software de copia de seguridad
miran la fecha del fichero y la comparan con la última
copia de seguridad, para así determinar si el archivo se
ha modificado.Incremental a nivel de bloqueUn sistema
más sofisticado de copia de seguridad de ficheros es el
basado en solamente copiar los bloques físicos del
fichero que han sufrido algún cambio. Esto requiere un
alto nivel de integración entre el sistema de ficheros y el
software de la copia de seguridad.Incremental o
diferencial binariaEs tecnología de respaldo que se
desarrolla en la década de 2000. El método es similar a
la Incremental a nivel de bloque, pero basada en reflejar
las variaciones binarias que sufren los ficheros respecto
al anterior backup. Mientras la tecnología a nivel de
bloque trabaja con unidades de cambio relativamente
grandes (bloques de 8Ks, 4Ks, 1K) la tecnología a nivel
de byte trabaja con la unidad mínima capaz de ahorrar
espacio para reflejar un cambio. Otra diferencia
importante es que es independiente del sistema de
ficheros. Actualmente es la tecnología que consigue la
máxima compresión relativa de la información y ofrece
así una ventaja importante en las copias de seguridad a
través de la Internet.Versionado del sistema de
ficherosEl versionado del sistema de ficheros se
mantiene atento a los cambios del fichero y crea estos
cambios accesibles al usuario. Esta es una forma de
copia de seguridad que está integrada al ambiente
informático.Copia de seguridad de datos en uso[editar]
Si un ordenador está en uso mientras se ejecuta su
copia de seguridad, existe la posibilidad de que haya
ficheros abiertos, ya que puede que se esté trabajando
sobre ellos. Si un fichero está abierto, el contenido en el
disco posiblemente no refleje exactamente lo que el
usuario ve. Esto es especialmente frecuente en ficheros
de bases de datos.
Cuando se intenta entender la logística de la copia de
seguridad de ficheros abiertos, uno debe considerar que
el proceso de copia de seguridad puede llevar varios
minutos en copiar un gran fichero como una bases de
datos. A fin de copiar un fichero en uso, es vital que la
copia de seguridad entera represente un único paso.
Esto representa un reto cuando se está copiando un
fichero en continua modificación. Aunque el archivo de
base de datos esté bloqueado para evitar cambios, se
debe implementar un método para asegurar que el
original snapshot sea preservado con tiempo de sobra
para ser copiado, incluso cuando se mantengan los
cambios.
Copia instantánea de volumen o snapshot: copia en
escrituraLa copia instantánea de volumen es una
función de algunos sistemas que realizan copias de los
ficheros como si estuvieran congelados en un momento
determinado.Copia de seguridad de ficheros abiertos:
ficheros bloqueadosAlgunos paquetes de software de
copias de seguridad no poseen la capacidad de realizar
copias de ficheros abiertos. Simplemente comprueban
que el fichero esté cerrado y si no lo está lo intentan
más tarde.Copias de seguridad de bases de datos en
calienteAlgunos sistemas de gestión de bases de datos
ofrecen medios para realizar imágenes de copias de
seguridad de una base de datos mientras esté activa y
en uso (en caliente). Esto normalmente incluye una
imagen consistente de los ficheros de datos en un cierto
momento más un registro de los cambios hechos
mientras el algoritmo está funcionando.Manipulación de
los datos de la copia de seguridad[editar]
Es una práctica habitual el manipular los datos
guardados en las copias de seguridad para optimizar
tanto los procesos de copia como el almacenamiento.
CompresiónLa compresión es el mejor método para
disminuir el espacio de almacenamiento necesario y de
ese modo reducir el costo.RedundanciaCuando varios
sistemas guardan sus copias de seguridad en el mismo
sistema de almacenamiento, existe la posibilidad de
redundancia en los datos copiados. Si tenemos
estaciones con el mismo sistema operativo
compartiendo el mismo almacén de datos, existe la
posibilidad de que la mayoría de los archivos del
sistema sean comunes. El almacén de datos realmente
sólo necesita almacenar una copia de esos ficheros
para luego ser utilizada por cualquiera de las estaciones.
Esta técnica puede ser aplicada al nivel de ficheros o
incluso al nivel de bloques de datos, reduciendo el
espacio utilizado para almacenar.DeduplicaciónEs una
técnica especializada de compresión de datos para
eliminar copias duplicadas de datos repetidos. Un
término relacionado con la deduplicación de datos es la
compresión inteligente de datos. Esta técnica se usa
para optimizar el almacenamiento de datos en disco y
también para reducir la cantidad de información que
debe enviarse de un dispositivo a otro a través de redes
de comunicación.CifradoLa alta capacidad de los
soportes de almacenamiento desmontables implica un
riesgo de perderse o ser robados. Si se cifra la
información de estos soportes se puede mitigar el
problema, aunque esto presenta nuevos inconvenientes.
Primero, cifrar es un proceso que consume mucho
tiempo de CPU y puede bajar la velocidad de copiado. En
segundo lugar, una vez cifrados los datos, la compresión
es menos eficaz.Administración del proceso de copia de
seguridad[editar]Limitaciones[editar]
Un esquema de copia de seguridad efectiva debe tener
en consideración las limitaciones de la situación. Todo
esquema de copia de seguridad tiene cierto impacto en
el sistema que ha sido copiado. Si este impacto es
significativo, la copia de seguridad debe ser acotada en
el tiempo.
Todos los soportes de almacenamiento tienen una
capacidad finita y un coste real. Buscar la cantidad
correcta de capacidad acorde con las necesidades de la
copia de seguridad es una parte importante del diseño
del esquema de la copia.
Implementación[editar]
Alcanzar los objetivos definidos en vista de las
limitaciones existentes puede ser una tarea difícil. Las
herramientas y conceptos descritos a continuación
pueden hacer que esta tarea sea más alcanzable.
HorariosProgramar un horario de ejecución de las
copias de seguridad aumenta considerablemente su
efectividad y nivel de optimización. Muchos paquetes de
software de copias de seguridad ofrecen esta
posibilidad.AutentificaciónSobre el curso de
operaciones regulares, las cuentas de usuario y/o los
agentes del sistema que representan la copia de
seguridad necesitan ser autentificados a cierto nivel. El
poder de copiar todos los datos fuera o dentro del
sistema requiere acceso sin restricción. Utilizar un
mecanismo de autentificación es una buena manera de
evitar que el esquema de la copia de seguridad sea
usado por actividades sin autorizar.Cadena de
confianzaLos soportes de almacenamiento portátiles
son elementos físicos y deben ser gestionados sólo por
personas de confianza. Establecer una cadena de
confianza individual es crítico para defender la
seguridad de los datos.Validación de copias de
seguridadEl proceso por el cual los dueños de los datos
pueden obtener información considerando como fueron
copiados esos datos. El mismo proceso es también
usado para probar conformidad para los cuerpos
reguladores fuera de la organización. Terrorismo,
complejidad de datos, valores de datos y aumento de la
dependencia sobre volúmenes de datos crecientes,
todos contribuyen a una ansiedad alrededor y
dependencia sobre copias de seguridad satisfactorias.
Por ello varias organizaciones normalmente relegan
sobre terceras personas o soluciones independientes la
averiguación, validación, optimización y el hacerse cargo
de sus operaciones de copia de seguridad. Algunos
programas de copias de seguridad modernas han
incorporado capacidades de validación.ReportandoEn
configuraciones más largas, los reportes son útiles para
monitorizar los medios usados, el estado de
dispositivos, errores, coordinación de saltos y cualquier
otra información sobre el proceso de copia de
seguridad.RegistrandoEn suma a la historia de los
reportes generados por el ordenador, actividades y
registros de cambio son útiles para así entender mejor la
copia de seguridad.VerificaciónMuchos programas de
copia de seguridad hacen uso de Sumas de verificación
o hashes. Esto ofrece muchas ventajas. Primero, estos
permiten a la integridad de los datos ser verificados sin
hacer referencia al archivo original: si el archivo
guardado en un medio de copia tiene la misma suma de
verificación que el valor salvado, después es muy
probable que sea correcto. Segundo, algunos programas
de copias de seguridad pueden usar sumas de
verificación para evitar hacer redundantes copias de
archivos, y así mejorar la velocidad de la copia de
seguridad. Esto es particularmente útil en procesos de
reduplicado.Software de copias de seguridad[editar]
Existe una gran gama de software en el mercado para
realizar copias de seguridad. Es importante definir
previamente los requerimientos específicos para
determinar el softwareadecuado. Existe una infinidad de
programas adaptados a cada necesidad.
Para la adecuación a la LOPD de ficheros con datos de
carácter personal de nivel alto (salud, vida sexual,
religión, etc.) la regulación exige que las copias de
seguridad de dichos datos se almacenen cifrados y en
una ubicación diferente al lugar de origen.
La copia de seguridad es el mejor método de protección
de datos de importancia, pero siempre existe la
posibilidad de que la copia de datos no haya funcionado
correctamente y en caso de necesidad de restauración
de los datos no podamos realizarlo ya que la
información de la copia de seguridad puede encontrarse
corrupta por diversos motivos:
el medio en el que se realizaba la copia se encuentra
dañado.
los automatismos de copia no se han ejecutado
correctamente.
y otros muchos motivos que pueden causar que
nuestras copias de seguridad sean incorrectas, y por
lo tanto inútiles.
Para evitar este problema es muy importante que nos
cercioremos de que hacemos las copias correctamente
y comprobemos que somos capaces de restaurar la
copia de seguridad a su ubicación original,
comprobando así que la copia sea correcta y que somos
capaces de restaurarla y conocemos el método de
restauración, ya que en caso de necesidad crítica los
nervios afloran y nos pueden echar por tierra nuestra
labor de copia al realizar algún paso erróneo a la hora de
restaurar los datos.
En el hipotético caso de que no podamos restaurar
nuestra información, existe una última alternativa, ya
que en el mercado existen aplicaciones de recuperación
de datos que nos pueden ayudar en caso de que no
podamos restaurar nuestra copia de seguridad. También
existen métodos de recuperación de datos vía web.
Por último, y en casos extremos como unidades
dañadas, sólo nos quedaría recurrir a un laboratorio
especializado en la recuperación de datos
Una red de área amplia, o WAN (Wide Area Network en
inglés), es una red de computadoras que une varias
redes locales, aunque sus miembros no estén todos en
una misma ubicación física. Muchas WAN son
construidas por organizaciones o empresas para su uso
privado, otras son instaladas por los proveedores de
internet (ISP) para proveer conexión a sus clientes.
Hoy en día, internet brinda conexiones de alta velocidad,
de manera que un alto porcentaje de las redes WAN se
basan en ese medio, reduciendo la necesidad de redes
privadas WAN, mientras que las redes privadas virtuales
que utilizan cifrado y otras técnicas para generar una red
dedicada sobre comunicaciones en internet, aumentan
continuamente.
Definición[editar]
Una definición de las redes WAN, en el término de
aplicación de protocolos y conceptos de redes de
ordenadores, sería: tecnologías de redes de ordenadores
que se utilizan para transmitir datos a través de largas
distancias, y entre las diferentes redes LAN, MAN y otras
arquitecturas de redes de ordenadores localizadas. Esta
distinción se debe al hecho de que las tecnologías LAN
comunes que operan en la capa media (como Ethernet o
Wifi) a menudo están orientados a redes localizadas
físicamente, y por lo tanto no pueden transmitir datos a
través de decenas, cientos o incluso miles de millas o
kilómetros.
Las WAN no necesariamente tienen que estar
conectadas a las LAN. Puede, por ejemplo, tener un
esqueleto localizado de una tecnología WAN, que
conecta diferentes LANs dentro de un campus. Esta
podría ser la de facilitar las aplicaciones de ancho de
banda más altas, o proporcionar una mejor
funcionalidad para los usuarios.
Las WAN se utilizan para conectar redes LAN y otros
tipos de redes. Así los usuarios se pueden comunicar
con los usuarios y equipos de otros lugares. Muchas
WAN son construidas por una organización en particular
y son privadas. Otros, construidas por los proveedores
de servicios de Internet, que proporcionan conexiones
LAN a una organización de Internet. WAN a menudo se
construyen utilizando líneas arrendadas. En cada
extremo de la línea arrendada, un enrutador conecta la
LAN en un lado con un segundo enrutador dentro de la
LAN en el otro. Las líneas arrendadas pueden ser muy
costosas. En lugar de utilizar líneas arrendadas, WAN
también se puede construir utilizando métodos menos
costosos de conmutación de circuitos o conmutación de
paquetes. La red de protocolos incluyendo TCP/IP tiene
la función de entrega de transporte y funciones de
direccionamiento. Los protocolos, incluyendo paquetes
como SONET/SDH, MPLS, ATM y Frame Relay son
utilizados a menudo por los proveedores de servicios
que ofrecen los vínculos que se usan en redes WAN.
X.25 fue pronto un protocolo WAN importante, y es a
menudo considerado como el "abuelo" de Frame Relay
ya que muchos de los protocolos subyacentes y
funciones de X.25 todavía están en uso hoy en día (con
actualizaciones) por Frame Relay.
La investigación académica en redes de área amplia
puede ser dividido en tres áreas: modelos matemáticos,
emulación de red y de simulación de red.
Mejoras en el rendimiento a veces se entregan a través
de los servicios de archivos de área extensa o por
servicios de optimización de la WAN.
Opciones de tecnología de conexión[editar]
Hay varias opciones disponibles para la conectividad
WAN:
[[PASTING TABLES IS NOT SUPPORTED]]
Las tasas de transmisión han aumentado con el tiempo,
y seguirán aumentando. Alrededor de 1960 a 110 bits/s
(bits por segundo) de la línea fue normal en el borde de
la WAN, mientras que los enlaces centrales de 56 kbit/s
a 64 kbit/s se consideraron "rápida". En este momento
(2016) los hogares están conectados a Internet con
ADSL o Fibra óptica a velocidades que van desde
1 Mbit/s hasta 300 Mbit/s, y las conexiones en el núcleo
de una WAN puede variar de 1 Gbit/s de 300 Gbit/s.
Recientemente, con la proliferación del bajo coste de
conexión a Internet muchas empresas y organizaciones
han recurrido a las VPN para interconectar sus redes,
creando una red WAN de esa manera. Empresas como
Citrix, Cisco, New Edge Networks y Check Point ofrecen
soluciones para crear redes VPN.
Características[editar]
Posee máquinas dedicadas a la ejecución de
programas de usuario (hosts).
Una sub-red, donde conectan varios hosts.
División entre líneas de transmisión y elementos de
conmutación (enrutadores).
Es un sistema de interconexión de equipos
informáticos geográficamente dispersos, que
pueden estar incluso en continentes distintos. El
sistema de conexión para estas redes normalmente
involucra a redes públicas de transmisión de datos.
Ventajas de la red WAN[editar]
Permite usar un software especial para que entre sus
elementos de red coexistan mini y
macrocomputadoras
No se limita a espacios geográficos determinados
Ofrece una amplia gama de medios de transmisión,
como los enlaces satelitales
Desventajas de la red WAN[editar]
Se deben emplear equipos con una gran capacidad
de memoria, ya que este factor repercute
directamente en la velocidad de acceso a la
información.
No destaca por la seguridad que ofrece a sus
usuarios. Los virus y la eliminación de programas
son dos de los males más comunes que sufre la red
WAN.
Tipos de redes WAN[editar]
Existen varios tipos de red WAN, y tres de ellos se
agrupan bajo la clasificación de red conmutada (en
física, la conmutación consiste en el cambio del destino
de una señal o de una corriente eléctrica):
Por circuitos
Son redes de marcación de (dial-up), como la red de
telefonía básica (RTB) y RDSI. Durante el tiempo que
dura la llamada, el ancho de banda es dedicado.
Por mensaje
Sus conmutadores suelen ser ordenadores que cumplen
la tarea de aceptar el tráfico de cada terminal que se
encuentre conectado a ellas. Dichos equipos evalúan la
dirección que se encuentra en la cabecera de los
mensajes y pueden almacenarla para utilizarla más
adelante. Cabe mencionar que también es posible
borrar, redirigir y responder los mensajes en forma
automática.
Por paquetes
Se fracciona cada mensaje enviado por los usuarios y se
transforman en un número de pequeñas partes
denominadas paquetes,que se vuelven a unir una vez
llegan al equipo de destino, para reconstruir los datos
iniciales. Dichos paquetes se mueven por la red
independientemente, y esto repercute positivamente en
el tráfico, además de facilitar la corrección de errores, ya
que en caso de fallos sólo se deberán reenviar las partes
afectadas. El ancho de banda es compartido entre todos
los usuarios que usan la red.
Una red de área amplia, o WAN (Wide Area Network en
inglés), es una red de computadoras que une varias
redes locales, aunque sus miembros no estén todos en
una misma ubicación física. Muchas WAN son
construidas por organizaciones o empresas para su uso
privado, otras son instaladas por los proveedores de
internet (ISP) para proveer conexión a sus clientes.
Hoy en día, internet brinda conexiones de alta velocidad,
de manera que un alto porcentaje de las redes WAN se
basan en ese medio, reduciendo la necesidad de redes
privadas WAN, mientras que las redes privadas virtuales
que utilizan cifrado y otras técnicas para generar una red
dedicada sobre comunicaciones en internet, aumentan
continuamente.
Definición[editar]
Una definición de las redes WAN, en el término de
aplicación de protocolos y conceptos de redes de
ordenadores, sería: tecnologías de redes de ordenadores
que se utilizan para transmitir datos a través de largas
distancias, y entre las diferentes redes LAN, MAN y otras
arquitecturas de redes de ordenadores localizadas. Esta
distinción se debe al hecho de que las tecnologías LAN
comunes que operan en la capa media (como Ethernet o
Wifi) a menudo están orientados a redes localizadas
físicamente, y por lo tanto no pueden transmitir datos a
través de decenas, cientos o incluso miles de millas o
kilómetros.
Las WAN no necesariamente tienen que estar
conectadas a las LAN. Puede, por ejemplo, tener un
esqueleto localizado de una tecnología WAN, que
conecta diferentes LANs dentro de un campus. Esta
podría ser la de facilitar las aplicaciones de ancho de
banda más altas, o proporcionar una mejor
funcionalidad para los usuarios.
Las WAN se utilizan para conectar redes LAN y otros
tipos de redes. Así los usuarios se pueden comunicar
con los usuarios y equipos de otros lugares. Muchas
WAN son construidas por una organización en particular
y son privadas. Otros, construidas por los proveedores
de servicios de Internet, que proporcionan conexiones
LAN a una organización de Internet. WAN a menudo se
construyen utilizando líneas arrendadas. En cada
extremo de la línea arrendada, un enrutador conecta la
LAN en un lado con un segundo enrutador dentro de la
LAN en el otro. Las líneas arrendadas pueden ser muy
costosas. En lugar de utilizar líneas arrendadas, WAN
también se puede construir utilizando métodos menos
costosos de conmutación de circuitos o conmutación de
paquetes. La red de protocolos incluyendo TCP/IP tiene
la función de entrega de transporte y funciones de
direccionamiento. Los protocolos, incluyendo paquetes
como SONET/SDH, MPLS, ATM y Frame Relay son
utilizados a menudo por los proveedores de servicios
que ofrecen los vínculos que se usan en redes WAN.
X.25 fue pronto un protocolo WAN importante, y es a
menudo considerado como el "abuelo" de Frame Relay
ya que muchos de los protocolos subyacentes y
funciones de X.25 todavía están en uso hoy en día (con
actualizaciones) por Frame Relay.
La investigación académica en redes de área amplia
puede ser dividido en tres áreas: modelos matemáticos,
emulación de red y de simulación de red.
Mejoras en el rendimiento a veces se entregan a través
de los servicios de archivos de área extensa o por
servicios de optimización de la WAN.
Opciones de tecnología de conexión[editar]
Hay varias opciones disponibles para la conectividad
WAN:
[[PASTING TABLES IS NOT SUPPORTED]]
Las tasas de transmisión han aumentado con el tiempo,
y seguirán aumentando. Alrededor de 1960 a 110 bits/s
(bits por segundo) de la línea fue normal en el borde de
la WAN, mientras que los enlaces centrales de 56 kbit/s
a 64 kbit/s se consideraron "rápida". En este momento
(2016) los hogares están conectados a Internet con
ADSL o Fibra óptica a velocidades que van desde
1 Mbit/s hasta 300 Mbit/s, y las conexiones en el núcleo
de una WAN puede variar de 1 Gbit/s de 300 Gbit/s.
Recientemente, con la proliferación del bajo coste de
conexión a Internet muchas empresas y organizaciones
han recurrido a las VPN para interconectar sus redes,
creando una red WAN de esa manera. Empresas como
Citrix, Cisco, New Edge Networks y Check Point ofrecen
soluciones para crear redes VPN.
Características[editar]
Posee máquinas dedicadas a la ejecución de
programas de usuario (hosts).
Una sub-red, donde conectan varios hosts.
División entre líneas de transmisión y elementos de
conmutación (enrutadores).
Es un sistema de interconexión de equipos
informáticos geográficamente dispersos, que
pueden estar incluso en continentes distintos. El
sistema de conexión para estas redes normalmente
involucra a redes públicas de transmisión de datos.
Ventajas de la red WAN[editar]
Permite usar un software especial para que entre sus
elementos de red coexistan mini y
macrocomputadoras
No se limita a espacios geográficos determinados
Ofrece una amplia gama de medios de transmisión,
como los enlaces satelitales
Desventajas de la red WAN[editar]
Se deben emplear equipos con una gran capacidad
de memoria, ya que este factor repercute
directamente en la velocidad de acceso a la
información.
No destaca por la seguridad que ofrece a sus
usuarios. Los virus y la eliminación de programas
son dos de los males más comunes que sufre la red
WAN.
Tipos de redes WAN[editar]
Existen varios tipos de red WAN, y tres de ellos se
agrupan bajo la clasificación de red conmutada (en
física, la conmutación consiste en el cambio del destino
de una señal o de una corriente eléctrica):
Por circuitos
Son redes de marcación de (dial-up), como la red de
telefonía básica (RTB) y RDSI. Durante el tiempo que
dura la llamada, el ancho de banda es dedicado.
Por mensaje
Sus conmutadores suelen ser ordenadores que cumplen
la tarea de aceptar el tráfico de cada terminal que se
encuentre conectado a ellas. Dichos equipos evalúan la
dirección que se encuentra en la cabecera de los
mensajes y pueden almacenarla para utilizarla más
adelante. Cabe mencionar que también es posible
borrar, redirigir y responder los mensajes en forma
automática.
Por paquetes
Se fracciona cada mensaje enviado por los usuarios y se
transforman en un número de pequeñas partes
denominadas paquetes,que se vuelven a unir una vez
llegan al equipo de destino, para reconstruir los datos
iniciales. Dichos paquetes se mueven por la red
independientemente, y esto repercute positivamente en
el tráfico, además de facilitar la corrección de errores, ya
que en caso de fallos sólo se deberán reenviar las partes
afectadas. El ancho de banda es compartido entre todos
los usuarios que usan la red.
Una red privada virtual (RPV), en inglés: Virtual Private
Network (VPN), es una tecnología de red de
computadoras que permite una extensión segura de la
red de área local(LAN) sobre una red pública o no
controlada como Internet. Permite que la computadora
en la red envíe y reciba datos sobre redes compartidas o
públicas como si fuera una red privada con toda la
funcionalidad, seguridad y políticas de gestión de una
red privada.1 Esto se realiza estableciendo una conexión
virtual punto a punto mediante el uso de conexiones
dedicadas, cifrado o la combinación de ambos métodos.
Ejemplos comunes son la posibilidad de conectar dos o
más sucursales de una empresa utilizando como vínculo
Internet, permitir a los miembros del equipo de soporte
técnico la conexión desde su casa al centro de cómputo,
o que un usuario pueda acceder a su equipo doméstico
desde un sitio remoto, como por ejemplo un hotel. Todo
ello utilizando la infraestructura de Internet.
La conexión VPN a través de Internet es técnicamente
una unión wide area network (WAN) entre los sitios pero
al usuario le parece como si fuera un enlace privado— de
allí la designación "virtual private network".2
Características básicas de la seguridad[editar]
Para hacerlo posible de manera segura es necesario
proporcionar los medios para garantizar la
autentificación.
Autentificación y autorización: ¿quién está del otro
lado? Usuario/equipo y qué nivel de acceso debe
tener.
Integridad: de que los datos enviados no han sido
alterados. Para ello se utilizan funciones de Hash.
Los algoritmos de hash más comunes son los
Message Digest (MD2 y MD5) y el Secure Hash
Algorithm (SHA).
Confidencialidad/Privacidad: dado que solamente
puede ser interpretada por los destinatarios de la
misma. Se hace uso de algoritmos de cifrado como
Data Encryption Standard (DES), Triple DES (3DES) y
Advanced Encryption Standard (AES).
No repudio: es decir, un mensaje tiene que ir firmado,
y quien lo firma no puede negar que envió el
mensaje.
Control de acceso: se trata de asegurar que los
participantes autentificados tienen acceso
únicamente a los datos a los que están autorizados.
Auditoría y registro de actividades: se trata de
asegurar el correcto funcionamiento y la capacidad
de recuperación.
Calidad del servicio: se trata de asegurar un buen
rendimiento, que no haya una degradación poco
aceptable en la velocidad de transmisión.
Requisitos básicos[editar]
Identificación de usuario: las VPN deben verificar la
identidad de los usuarios y evitar el acceso de
aquellos que no se encuentren autorizados.
Cifrado de datos: los datos que se van a transmitir a
través de la red pública (Internet), deben cifrarse,
para que no puedan ser leídos si son interceptados.
Esta tarea se realiza con algoritmos de cifrado
simétrico como DES, 3DES o AES (Advanced
Encryption Standard, en sus opciones AES128,
AES192 o AES256) que únicamente pueden ser
leídos por el emisor y receptor.
Administración de claves: las VPN deben actualizar
las claves de cifrado para los usuarios.
Nuevo algoritmo de seguridad SEAL.
Tipos de VPN[editar]
Básicamente existen cuatro arquitecturas de conexión
VPN:
VPN de acceso remoto[editar]
Es quizás el modelo más usado actualmente, y consiste
en usuarios que se conectan con la empresa desde
sitios remotos (oficinas comerciales, domicilios, hoteles,
avionespreparados, etcétera) utilizando Internet como
vínculo de acceso. Una vez autentificados tienen un
nivel de acceso muy similar al que tienen en la red local
de la empresa. Muchas empresas han reemplazado con
esta tecnología su infraestructura dial-up (módems y
líneas telefónicas).
VPN punto a punto[editar]
Este esquema se utiliza para conectar oficinas remotas
con la sede central de la organización. El servidor VPN,
que posee un vínculo permanente a Internet, acepta las
conexiones vía Internet provenientes de los sitios y
establece el túnel VPN. Los servidores de las sucursales
se conectan a Internet utilizando los servicios de su
proveedor local de Internet, típicamente mediante
conexiones de banda ancha. Esto permite eliminar los
costosos vínculos punto a punto tradicionales
(realizados comúnmente mediante conexiones de cable
físicas entre los nodos), sobre todo en las
comunicaciones internacionales. Es más común el
siguiente punto, también llamado tecnología de túnel o
tunneling.
Tunneling[editar]
La técnica de tunneling consiste en encapsular un
protocolo de red sobre otro (protocolo de red
encapsulador) creando un túnel dentro de una red de
computadoras. El establecimiento de dicho túnel se
implementa incluyendo una PDU (unidades de datos de
protocolo) determinada dentro de otra PDU con el
objetivo de transmitirla desde un extremo al otro del
túnel sin que sea necesaria una interpretación
intermedia de la PDU encapsulada. De esta manera se
encaminan los paquetes de datos sobre nodos
intermedios que son incapaces de ver en claro el
contenido de dichos paquetes. El túnel queda definido
por los puntos extremos y el protocolo de comunicación
empleado, que entre otros, podría ser SSH.
El uso de esta técnica persigue diferentes objetivos,
dependiendo del problema que se esté tratando, como
por ejemplo la comunicación de islas en escenarios
multicast, la redirección de tráfico, etc.
Uno de los ejemplos más claros de utilización de esta
técnica consiste en la redirección de tráfico en
escenarios IP Móvil. En escenarios de IP móvil, cuando
un nodo-móvil no se encuentra en su red base, necesita
que su home-agent realice ciertas funciones en su
puesto, entre las que se encuentra la de capturar el
tráfico dirigido al nodo-móvil y redirigirlo hacia él. Esa
redirección del tráfico se realiza usando un mecanismo
de tunneling, ya que es necesario que los paquetes
conserven su estructura y contenido originales
(dirección IP de origen y destino, puertos, etc.) cuando
sean recibidos por el nodo-móvil. Se maneja de manera
remota.
VPN over LAN[editar]
Este esquema es el menos difundido pero uno de los
más poderosos para utilizar dentro de la empresa. Es
una variante del tipo "acceso remoto" pero, en vez de
utilizar Internet como medio de conexión, emplea la
misma red de área local (LAN) de la empresa. Sirve para
aislar zonas y servicios de la red interna. Esta capacidad
lo hace muy conveniente para mejorar las prestaciones
de seguridad de las redes inalámbricas (WiFi).
Un ejemplo clásico es un servidor con información
sensible, como las nóminas de sueldos, ubicado detrás
de un equipo VPN, el cual provee autenticación adicional
más el agregado del cifrado, haciendo posible que
solamente el personal de recursos humanos habilitado
pueda acceder a la información.
Otro ejemplo es la conexión a redes Wi-Fi haciendo uso
de túneles cifrados IPSec o SSL que además de pasar
por los métodos de autenticación tradicionales (WEP,
WPA, direcciones MAC, etc.) agregan las credenciales de
seguridad del túnel VPN creado en la LAN interna o
externa.
Implementaciones[editar]
El protocolo estándar de facto es el IPSEC, pero también
están PPTP, L2F, L2TP, SSL/TLS, SSH, etc. Cada uno con
sus ventajas y desventajas en cuanto a seguridad,
facilidad, mantenimiento y tipos de clientes soportados.
Actualmente hay una línea de productos en crecimiento
relacionada con el protocolo SSL/TLS, que intenta hacer
más amigable la configuración y operación de estas
soluciones.
Las soluciones de hardware casi siempre ofrecen
mayor rendimiento y facilidad de configuración,
aunque no tienen la flexibilidad de las versiones por
software. Dentro de esta familia tenemos a los
productos de Fortinet, SonicWALL, SaiWALL,
WatchGuard, Nortel, Cisco, Linksys, Netscreen
(Juniper Networks), Symantec, Nokia, U.S. Robotics,
D-link, Mikrotik, etc.
Las aplicaciones VPN por software son las más
configurables y son ideales cuando surgen
problemas de interoperatividad en los modelos
anteriores. Obviamente el rendimiento es menor y la
configuración más delicada, porque se suma el
sistema operativo y la seguridad del equipo en
general. Aquí tenemos por ejemplo a las soluciones
nativas de Windows, GNU/Linux y los Unix en
general. Por ejemplo productos de código abierto
como OpenSSH, OpenVPN y FreeS/Wan.
En ambos casos se pueden utilizar soluciones de
firewall («cortafuegos» o «barrera de fuego»),
obteniendo un nivel de seguridad alto por la protección
que brinda, en detrimento del rendimiento.
Ventajas[editar]
Integridad, confidencialidad y seguridad de datos.
Las VPN reducen los costes y son sencillas de usar.
Facilita la comunicación entre dos usuarios en
lugares distantes.
Tipos de conexión[editar]Conexión de acceso
remoto[editar]
Una conexión de acceso remoto es realizada por un
cliente o un usuario de una computadora que se conecta
a una red privada, los paquetes enviados a través de la
conexión VPN son originados al cliente de acceso
remoto, y éste se autentifica al servidor de acceso
remoto, y el servidor se autentifica ante el cliente.
Conexión VPN router a router[editar]
Una conexión VPN router a router es realizada por un
router, y este a su vez se conecta a una red privada. En
este tipo de conexión, los paquetes enviados desde
cualquier routerno se originan en los routers. El router
que realiza la llamada se autentifica ante el router que
responde y este a su vez se autentifica ante el router que
realiza la llamada y también sirve para la intranet.
Conexión VPN firewall a firewall[editar]
Una conexión VPN firewall es realizada por uno de ellos,
y éste a su vez se conecta a una red privada. En este
tipo de conexión, los paquetes son enviados desde
cualquier usuario en Internet. El firewall que realiza la
llamada se autentifica ante el que responde y éste a su
vez se autentifica ante el llamante.
VPN en entornos móviles[editar]
La VPN móvil se establece cuando el punto de
terminación de la VPN no está fijo a una única dirección
IP, sino que se mueve entre varias redes como pueden
ser las redes de datos de operadores móviles o distintos
puntos de acceso de una red Wifi.3 Las VPNs móviles se
han utilizado en seguridad pública dando acceso a las
fuerzas de orden público a aplicaciones críticas tales
como bases de datos con datos de identificación de
criminales, mientras que la conexión se mueve entre
distintas subredes de una red móvil.4 También se
utilizan en la gestión de equipos de técnico y en
organizaciones sanitarias5 entre otras industrias. Cada
vez más, las VPNs móviles están siendo adaptadas por
profesionales que necesitan conexiones fiables.6 Se
utilizan para moverse entre redes sin perder la sesión de
aplicación o perder la sesión segura en la VPN. En una
VPN tradicional no se pueden soportar tales situaciones
porque se produce la desconexión de la aplicación, time
outs3 o fallos, o incluso causar fallos en el dispositivo
Ethernet (pronunciado /ˈiːθərnɛt/ en inglés) es un
estándar de redes de área local para computadores,por
sus siglas en español Acceso Múltiple con Escucha de
Portadora y Detención de Colisiones (CSMA/CD). Su
nombre viene del concepto físico de ether. Ethernet
define las características de cableado y señalización de
nivel físico y los formatos de tramas de datos del nivel
de enlace de datos del modelo OSI.
Ethernet se tomó como base para la redacción del
estándar internacional IEEE 802.3, siendo usualmente
tomados como sinónimos. Se diferencian en uno de los
campos de la trama de datos. Sin embargo, las tramas
Ethernet e IEEE 802.3 pueden coexistir en la misma red.
Historia[editar]
En 1970, mientras Norman Abramson montaba la gran
red ALOHA en Hawái, un estudiante recién graduado en
el MIT llamado Robert Metcalfe se encontraba
realizando sus estudios de doctorado en la Universidad
de Harvard trabajando para ARPANET, que era el tema
de investigación candente en aquellos días. En un viaje a
Washington, Metcalfe estuvo en casa de Steve Crocker
(el inventor de los RFC de Internet) donde este lo dejó
dormir en el sofá. Para poder conciliar el sueño Metcalfe
empezó a leer una revista científica donde encontró un
artículo de Norm Abramson acerca de la red Aloha.
Metcalfe pensó cómo se podía mejorar el protocolo
utilizado por Abramson, y escribió un artículo
describiendo un protocolo que mejoraba
sustancialmente el rendimiento de Aloha. Ese artículo se
convertiría en su tesis doctoral, que presentó en 1973.
La idea básica era muy simple: las estaciones antes de
transmitir deberían detectar si el canal ya estaba en uso
(es decir si ya había 'portadora'), en cuyo caso
esperarían a que la estación activa terminara. Además,
cada estación mientras transmitiera estaría
continuamente vigilando el medio físico por si se
producía alguna colisión, en cuyo caso se pararía y
retransmitiría más tarde. Este protocolo MAC recibiría
más tarde la denominación Acceso Múltiple con
Detección de Portadora y Detección de Colisiones, o
más brevemente CSMA/CD (Carrier Sense Multiple
Access / Collision Detection).
En 1972 Metcalfe se mudó a California para trabajar en
el Centro de Investigación de Xerox en Palo Alto llamado
Xerox PARC (Palo Alto Research Center). Allí se estaba
diseñando lo que se consideraba la 'oficina del futuro' y
Metcalfe encontró un ambiente perfecto para desarrollar
sus inquietudes. Se estaban probando unas
computadoras denominadas Alto, que ya disponían de
capacidades gráficas y ratón y fueron consideradas los
primeros ordenadores personales. También se estaban
fabricando las primeras impresoras láser. Se quería
conectar las computadoras entre sí para compartir
ficheros y las impresoras. La comunicación tenía que
ser de muy alta velocidad, del orden de megabits por
segundo, ya que la cantidad de información a enviar a
las impresoras era enorme (tenían una resolución y
velocidad comparables a una impresora láser actual).
Estas ideas que hoy parecen obvias eran
completamente revolucionarias en 1973.
A Metcalfe, el especialista en comunicaciones del
equipo con 27 años de edad, se le encomendó la tarea
de diseñar y construir la red que uniera todo aquello.
Contaba para ello con la ayuda de un estudiante de
doctorado de Stanford llamado David Boggs. Las
primeras experiencias de la red, que denominaron 'Alto
Aloha Network', las llevaron a cabo en 1972. Fueron
mejorando gradualmente el prototipo hasta que el 22 de
mayo de 1973 Metcalfe escribió un memorándum
interno en el que informaba de la nueva red. Para evitar
que se pudiera pensar que solamente servía para
conectar computadoras Alto cambió el nombre de la red
por el de Ethernet, que hacía referencia a la teoría de la
física hoy ya abandonada según la cual las ondas
electromagnéticas viajaban por un fluido denominado
éter que se suponía llenaba todo el espacio (para
Metcalfe el 'éter' era el cable coaxialpor el que iba la
señal). Las dos computadoras Alto utilizadas para las
primeras pruebas de Ethernet fueron rebautizadas con
los nombres Michelson y Morley, en alusión a los dos
físicos que demostraron en 1887 la inexistencia del éter
mediante el famoso experimento de Michelson y Morley.
La red de 1973 ya tenía todas las características
esenciales de la Ethernet actual. Empleaba CSMA/CD
para minimizar la probabilidad de colisión, y en caso de
que esta se produjera se ponía en marcha un
mecanismo denominado retroceso exponencial binario
para reducir gradualmente la ‘agresividad’ del emisor,
con lo que este se adaptaba a situaciones de muy
diverso nivel de tráfico. Tenía topología de bus y
funcionaba a 2,94 Mb/s sobre un segmento de cable
coaxial de 1,6 km de longitud. Las direcciones eran de 8
bits y el CRC de las tramas de 16 bits. El protocolo
utilizado al nivel de red era el PUP (Parc Universal
Packet) que luego evolucionaría hasta convertirse en el
que luego fue XNS (Xerox Network System), antecesor a
su vez de IPX (Netware de Novell).
En vez de utilizar el cable coaxial de 75 ohms de las
redes de televisión por cable se optó por emplear cable
de 50 ohms que producía menos reflexiones de la señal,
a las cuales Ethernet era muy sensible por transmitir la
señal en banda base (es decir sin modulación). Cada
empalme del cable y cada 'pincho' vampiro (transceiver)
instalado producía la reflexión de una parte de la señal
transmitida. En la práctica el número máximo de
'pinchos' vampiro, y por tanto el número máximo de
estaciones en un segmento de cable coaxial, venía
limitado por la máxima intensidad de señal reflejada
tolerable.
En 1975 Metcalfe y Boggs describieron Ethernet en un
artículo que enviaron a Communications of the ACM
(Association for Computing Machinery), publicado en
1976. En él ya describían el uso de repetidores para
aumentar el alcance de la red. En 1977 Metcalfe, Boggs
y otros dos ingenieros de Xerox recibieron una patente
por la tecnología básica de Ethernet, y en 1978 Metcalfe
y Boggs recibieron otra por el repetidor. En esta época
todo el sistema Ethernet era propiedad de Xerox.
Conviene destacar que David Boggs construyó en el año
1975 durante su estancia en Xerox PARC el primer router
y el primer servidor de nombres de Internet.
Versiones de 802.3[editar]
Ethernet se tomó como base para la redacción del
estándar internacional IEEE 802.3, siendo usualmente
tomados como sinónimos. Se diferencian en uno de los
campos de la trama de datos. Sin embargo, las tramas
originales Ethernet e IEEE 802.3 pueden coexistir en la
misma red.
Los estándares de este grupo no reflejan
necesariamente lo que se usa en la práctica, aunque a
diferencia de otros grupos este suele estar cerca de la
realidad.
La primera versión del IEEE 802.3 fue un intento de
estandarizar ethernet aunque hubo un campo de la
cabecera que se definió de forma diferente,
posteriormente ha habido ampliaciones sucesivas al
estándar que cubrieron las ampliaciones de velocidad
(Fast Ethernet, Gigabit Ethernet y el de 10 Gigabits),
redes virtuales, hubs, conmutadores y distintos tipos de
medios, tanto de fibra óptica como de cables de cobre
(tanto par trenzado como coaxial).
[[PASTING TABLES IS NOT SUPPORTED]]Formato de la
trama Ethernet[editar]
La trama es lo que se conoce también por el nombre de
"frame".
Estructura de la Payload en Ethernet y protocolos IP y
TCP.
El primer campo es el preámbulo que indica el inicio
de la trama y tienen el objeto de que el dispositivo
que lo recibe detecte una nueva trama y se
sincronice.
El delimitador de inicio de trama indica que el frame
empieza a partir de él.
Los campos de MAC (o dirección) de destino y
origen indican las direcciones físicas del dispositivo
al que van dirigidos los datos y del dispositivo origen
de los datos, respectivamente.
La etiqueta es un campo opcional que indica la
pertenencia a una VLAN o prioridad en IEEE P802.1p
Ethernetype indica con que protocolo están
encapsulados los datos que contiene la Payload, en
caso de que se usase un protocolo de capa superior.
La Payload es donde van todos los datos y, en el
caso correspondiente, cabeceras de otros protocolos
de capas superiores (Según Modelo OSI, véase
Protocolos en informática) que pudieran formatear a
los datos que se tramiten (IP, TCP, etc). Tiene un
mínimo de 64 Bytes (o 42 si es la versión 802.1Q)
hasta un máximo de 1518 Bytes. Los mensajes
inferiores a 64 bytes se llaman tramas enanas (runt
frames) e indican mensajes dañados y parcialmente
transmitidos.1
La secuencia de comprobación es un campo de 4
bytes que contiene un valor de verificación CRC
(control de redundancia cíclica). El emisor calcula el
CRC de toda la trama, desde el campo destino al
campo CRC suponiendo que vale 0. El receptor lo
recalcula, si el valor calculado es 0 la trama es válida.
El gap de final de trama son 12 bytes vacíos con el
objetivo de espaciado entre tramas.
[[PASTING TABLES IS NOT SUPPORTED]]Tecnología y
velocidad de Ethernet[editar]
Hace ya mucho tiempo que Ethernet consiguió situarse
como el principal protocolo del nivel de enlace. Ethernet
10Base2 consiguió, ya en la década de los 90s, una gran
aceptación en el sector. Hoy por hoy, 10Base2 se
considera como una "tecnología de legado" respecto a
100BaseT. Hoy los fabricantes ya han desarrollado
adaptadores capaces de trabajar tanto con la tecnología
10baseT como la 100BaseT y esto ayuda a una mejor
adaptación y transición.
Las tecnologías Ethernet que existen se diferencian en
estos conceptos entre ellos:
Velocidad de transmisiónVelocidad a la que transmite la
tecnología.Tipo de cableTecnología del nivel físico que
usa la tecnología.Longitud máximaDistancia máxima
que puede haber entre dos nodos adyacentes (sin
estaciones repetidoras).TopologíaDetermina la forma
física de la red. Bus si se usan conectores T (hoy
solamente usados con las tecnologías más antiguas) y
estrella si se usan hubs (estrella de difusión) o switchs
(estrella conmutada).
A continuación se especifican los anteriores conceptos
en las tecnologías más importantes:
[[PASTING TABLES IS NOT SUPPORTED]]Hardware
comúnmente usado en una red Ethernet[editar]
Los elementos de una red Ethernet son: tarjeta de red,
repetidores, concentradores, puentes, los conmutadores,
los nodos de red y el medio de interconexión. Los nodos
de red pueden clasificarse en dos grandes grupos:
equipo terminal de datos (DTE) y equipo de
comunicación de datos (DCE).
Los DTE son dispositivos de red que generan el destino
de los datos: los PC, las estaciones de trabajo, los
servidores de archivos, los servidores de impresión;
todos son parte del grupo de las estaciones finales. Los
DCE son los dispositivos de red intermediarios que
reciben y retransmiten las tramas dentro de la red;
pueden ser: conmutadores (switch), routers,
concentradores (hub), repetidores o interfaces de
comunicación. Por ejemplo: un módem o una tarjeta de
interfaz.
Tarjeta de Interfaz de Red o NIC, permite que una
computadora acceda a una red local. Cada tarjeta
tiene una única dirección MAC que la identifica en la
red. Una computadora conectada a una red se
denomina nodo.
Repetidor o repeater, aumenta el alcance de una
conexión física, recibiendo las señales y
retransmitiéndolas, para evitar su degradación, a
través del medio de transmisión, lográndose un
alcance mayor. Usualmente se usa para unir dos
áreas locales 'de igual' tecnología y solamente tiene
'dos' puertos. Opera en la capa física del modelo OSI.
Concentrador o hub, funciona como un repetidor
pero permite la interconexión de 'múltiples' nodos. Su
funcionamiento es relativamente simple pues recibe
una trama de ethernet, por uno de sus puertos, y la
repite por todos sus puertos restantes sin ejecutar
ningún proceso sobre las mismas. Opera en la capa
física del modelo OSI.
Puente de red o bridge, interconecta segmentos de
red haciendo el cambio de frames (tramas) entre las
redes de acuerdo con una tabla de direcciones que le
dice en qué segmento está ubicada una dirección
MAC dada. Se diseñan para uso entre las LAN que
usan protocolos idénticos en la capa física y MAC
(control de acceso al medio). Aunque existen bridges
más sofisticados que permiten la conversión de
formatos MAC diferentes (Ethernet-Token Ring por
ejemplo).
Conexiones en un switch Ethernet.
Conmutador o switch, funciona como el bridge, pero
permite la interconexión de múltiples segmentos de
red, funciona en velocidades más rápidas y es más
sofisticado. Los switches pueden tener otras
funcionalidades, como redes virtuales, y permiten su
configuración a través de la propia red. Funciona
básicamente en la capa 2 del modelo OSI (enlace de
datos). Por esto son capaces de procesar
información de las tramas; su funcionalidad más
importante es en las tablas de dirección. Por
ejemplo, una computadora conectada al puerto 1 del
conmutador envía una trama a otra computadora
conectada al puerto 2; el switch recibe la trama y la
transmite a todos sus puertos, excepto aquel por
donde la recibió; la computadora 2 recibirá el
mensaje y eventualmente lo responderá, generando
tráfico en el sentido contrario; ahora el switch
conocerá las direcciones MAC de las computadoras
en el puerto 1 y 2; cuando reciba otra trama con
dirección de destino de alguna de ellas, únicamente
transmitirá la trama a dicho puerto disminuyendo así
el tráfico de la red y contribuyendo al buen
funcionamiento de la misma.
Presente y futuro de Ethernet[editar]
Ethernet se planteó en un principio como un protocolo
destinado a cubrir las necesidades de las redes de área
local (LAN).
A partir de 2001, Ethernet alcanzó los 10 Gbit/s lo que
dio mucha más popularidad a la tecnología. Dentro del
sector se planteaba a ATM como la total encargada de
los niveles superiores de la red, pero el estándar 802.3ae
(Ethernet Gigabit 10) se ha situado en una buena
posición para extenderse al nivel WAN.
Logotipo de la marca Wi-Fi
El wifi (sustantivo común en español, incluido en el
Diccionario de la ASALE)1 es una tecnología que
permite la interconexión inalámbrica de dispositivos
electrónicos. Los dispositivos habilitados con wifi (tales
como computadoras personales, teléfonos, televisores,
videoconsolas, reproductores de música...) pueden
conectarse entre sí o a internet a través de un punto de
acceso de red inalámbrica.
Wi-Fi es una marca de la Alianza Wi-Fi, la organización
comercial que adopta, prueba y certifica que los equipos
cumplen con los estándares 802.11 relacionados con
redes inalámbricas de área local. Su primera
denominación fue “Wireless Ethernet Compatibility
Alliance”.2
Etimología[editar]
El término wifi, sustantivo comúnnota 1 escrito
normalmente en redonda (sin comillas ni cursiva),
proviene de la marca comercial Wi-Fi.3 La WECA, el
consorcio que desarrolló esta tecnología, contrató a una
empresa de publicidad para que le diera un nombre a su
estándar, de tal manera que fuera fácil de entender y
recordar. Phil Belanger, miembro fundador de WECA,
actualmente llamada Alianza Wi-Fi, apoyó el nombre Wi-
Fi:4
"Wi-Fi" y el "Style logo" del Yin Yang fueron inventados
por la agencia Interbrand. Nosotros (WiFi Alliance)
contratamos a Interbrand para que nos hiciera un
logotipo y un nombre que fuera corto, tuviera mercado
y fuera fácil de recordar. Necesitábamos algo que
fuera algo más llamativo que “IEEE 802.11b de
Secuencia Directa”. Interbrand creó nombres como
“Prozac”, “Compaq”, “OneWorld”, “Imation”, por
mencionar algunos. Incluso inventaron un nombre
para la compañía: VIATO.”
Phil Belanger
La Wi-Fi Alliance utilizó el eslogan publicitario "The
Standard for Wireless Fidelity" - El estándar para la
fidelidad inalámbrica - por un corto tiempo después de
que se creara la marca, y aunque, el nombre nunca fue
oficialmente "fidelidad inalámbrica", como la Wi-Fi
Alliance también se denominó "Wireless Fidelity Alliance
Inc" - Alianza de la Fidelidad Inalámbrica incorporada -
en algunas publicaciones y en la web del IEEE se define
que "WiFi es un nombre corto para Wireless Fidelity" se
puede concluir que Wi-Fi se entiende como abreviatura
de Fidelidad Inalámbrica, para nombrar un conjunto de
protocolos y ferretería - hardware - de red inalámbrica
con inspiración mercadotécnica o marketiniana en el
uso de Hi-Fi para "High Fidelity" Alta Fidelidad para
nombrar un conjunto de sistemas de audio de altas
prestaciones.
Historia[editar]
Esta nueva tecnología surgió por la necesidad de
establecer un mecanismo de conexión inalámbrica que
fuese compatible entre distintos dispositivos. Buscando
esa compatibilidad, en 1999 las empresas 3Com,
Airones, Intersil, Lucent Technologies, Nokia y Symbol
Technologies se unieron para crear la Wireless Ethernet
Compatibility Alliance, o WECA, actualmente llamada
Alianza Wi-Fi. El objetivo de la misma fue designar una
marca que permitiese fomentar más fácilmente la
tecnología inalámbrica y asegurar la compatibilidad de
equipos.
De esta forma, en abril de 2000 WECA certifica la
interoperabilidad de equipos según la norma IEEE
802.11b, bajo la marca Wi-Fi. Esto quiere decir que el
usuario tiene la garantía de que todos los equipos que
tengan el sello Wi-Fi pueden trabajar juntos sin
problemas, independientemente del fabricante de cada
uno de ellos.
En el año 2002, la asociación WECA estaba formada ya
por casi 150 miembros en su totalidad[cita requerida].
La familia de estándares 802.11 ha ido naturalmente
evolucionando desde su creación, mejorando el rango y
velocidad de la transferencia de información, su
seguridad, entre otras cosas.
La norma IEEE 802.11 fue diseñada para sustituir el
equivalente a las capas físicas y MAC de la norma 802.3
(Ethernet). Esto quiere decir que en lo único que se
diferencia una red wifi de una red Ethernet es en cómo
se transmiten las tramas o paquetes de datos; el resto
es idéntico. Por tanto, una red local inalámbrica 802.11
es completamente compatible con todos los servicios
de las redes locales (LAN) de cable 802.3 (Ethernet).
Estándares que certifica la Alianza Wi-Fi[editar]
Existen diversos tipos de wifi, basado cada uno de ellos
en un estándar IEEE 802.11. Son los siguientes:
Los estándares IEEE 802.11b, IEEE 802.11g e IEEE
802.11n disfrutan de una aceptación internacional
debido a que la banda de 2,4 GHz está disponible
casi universalmente, con una velocidad de hasta
11 Mbit/s, 54 Mbit/s y 300 Mbit/s, respectivamente.
En la actualidad ya se maneja también el estándar
IEEE 802.11ac, conocido como WIFI 5, que opera en
la banda de 5 GHz y que disfruta de una operatividad
con canales relativamente limpios. La banda de
5 GHz ha sido recientemente habilitada y, al no existir
otras tecnologías (Bluetooth, microondas, ZigBee,
WUSB) que la utilicen, se producen muy pocas
interferencias. Su alcance es algo menor que el de
los estándares que trabajan a 2,4 GHz
(aproximadamente un 10 %), debido a que la
frecuencia es mayor (a mayor frecuencia, menor
alcance).
Existen otras tecnologías inalámbricas como Bluetooth
que también funcionan a una frecuencia de 2,4 GHz, por
lo que puede presentar interferencias con la tecnología
wifi. Debido a esto, en la versión 1.2 del estándar
Bluetooth por ejemplo se actualizó su especificación
para que no existieran interferencias con la utilización
simultánea de ambas tecnologías, además se necesita
tener 40 Mbit/s.
Seguridad y fiabilidad[editar]
Tarjeta wifi y bluetooth interno.
Uno de los problemas a los cuales se enfrenta
actualmente la tecnología wifi es la progresiva
saturación del espectro radioeléctrico, debido a la
masificación de usuarios; esto afecta especialmente en
las conexiones de larga distancia (mayor de 100
metros). En realidad el estándar wifi está diseñado para
conectar ordenadores a la red a distancias reducidas,
cualquier uso de mayor alcance está expuesto a un
excesivo riesgo de interferencias.
Un elevado porcentaje de redes se instalan sin tener en
consideración la seguridad, convirtiéndose así en redes
abiertas (completamente accesible a terceras
personas), sin proteger la información que por ellas
circulan. De hecho, la configuración por defecto de
muchos dispositivos wifi es muy insegura (routers, por
ejemplo) dado que a partir del identificador del
dispositivo se puede conocer la contraseña de acceso
de éste y, por tanto,se puede conseguir fácilmente
acceder y controlar el dispositivo .
El acceso no autorizado a un dispositivo wifi es muy
peligroso para el propietario por varios motivos. El más
obvio es que pueden utilizar la conexión. Pero, además,
accediendo al wifi se puede supervisar y registrar toda la
información que se transmite a través de él (incluyendo
información personal, contraseñas…). La forma de
hacerlo seguro es seguir algunos consejos:56
Cambios frecuentes de la contraseña de acceso,
utilizando diversos caracteres, minúsculas,
mayúsculas y números.
Se debe modificar el SSID que viene predeterminado.
Desactivar la difusión de SSID y DHCP.
Configurar los dispositivos conectados con su
dirección MAC (indicando específicamente qué
dispositivos están autorizados para conectarse).
Utilización de cifrado: WPA2.
Existen varias alternativas para garantizar la seguridad
de estas redes. Las más comunes son la utilización de
protocolos de cifrado de datos para los estándares wifi
como el WEP, el WPA, o el WPA2 que se encargan de
codificar la información transmitida para proteger su
confidencialidad, proporcionados por los propios
dispositivos inalámbricos. La mayoría de las formas son
las siguientes:
WEP, cifra los datos en su red de forma que solo el
destinatario deseado pueda acceder a ellos. Los
cifrados de 64 y 128 bits son dos niveles de
seguridad WEP. WEP codifica los datos mediante una
“clave” de cifrado antes de enviarlo al aire. Este tipo
de cifrado no está recomendado debido a las
grandes vulnerabilidades que presenta ya que
cualquier cracker puede conseguir sacar la clave,
incluso aunque esté bien configurado y la clave
utilizada sea compleja.
WPA: presenta mejoras como generación dinámica
de la clave de acceso. Las claves se insertan como
dígitos alfanuméricos.
IPSEC (túneles IP) en el caso de las VPN y el
conjunto de estándares IEEE 802.1X, que permite la
autenticación y autorización de usuarios.
Filtrado de MAC, de manera que solo se permite
acceso a la red a aquellos dispositivos autorizados.
Es lo más recomendable si solo se va a usar con los
mismos equipos y si son pocos.
Ocultación del punto de acceso: se puede ocultar el
punto de acceso (router) de manera que sea invisible
a otros usuarios.
El protocolo de seguridad llamado WPA2 (estándar
802.11i), que es una mejora relativa a WPA. En
principio es el protocolo de seguridad más seguro
para Wi-Fi en este momento. Sin embargo requieren
hardware y software compatibles, ya que los
antiguos no lo son.
La seguridad de una red wifi puede ser puesta a prueba
mediante una auditoría de wifi. Sin embargo, no existe
ninguna alternativa totalmente fiable, ya que todas ellas
son susceptibles de ser vulneradas.
Dispositivos[editar]
Existen varios dispositivos wifi, los cuales se pueden
dividir en dos grupos: dispositivos de distribución o de
red, entre los que destacan los enrutadores, puntos de
acceso y repetidores; y dispositivos terminales que en
general son las tarjetas receptoras para conectar a la
computadora personal, ya sean internas (tarjetas PCI) o
bien USB.
Dispositivos de distribución o de red:
Los puntos de acceso son dispositivos que
generan un set de servicio que podría definirse
como una red wifi a la que se pueden conectar
otros dispositivos. Los puntos de acceso
permiten conectar dispositivos de forma
inalámbrica a una red existente. Pueden
agregarse más puntos de acceso a una red para
generar redes de cobertura más amplia, o
conectar antenas más grandes que amplifiquen la
señal.
Los repetidores inalámbricos son equipos que se
utilizan para extender la cobertura de una red
inalámbrica. Se conectan a una red existente que
tiene señal más débil y crean una señal más
fuerte a la que se pueden conectar los equipos
dentro de su alcance. Algunos de ellos funcionan
también como punto de acceso.
Los enrutadores inalámbricos son dispositivos
compuestos especialmente diseñados para redes
pequeñas (hogar o pequeña oficina). Estos
dispositivos incluyen un enrutador (encargado de
interconectar redes; por ejemplo, nuestra red del
hogar con Internet), un punto de acceso
(explicado más arriba) y generalmente un
conmutadorque permite conectar algunos
equipos vía cable (Ethernet y USB). Su tarea es
tomar la conexión a Internet y brindar a través de
ella acceso a todos los equipos que conectemos,
sea por cable o en forma inalámbrica.
Los dispositivos terminales abarcan tres tipos
mayoritarios: tarjetas PCI, tarjetas PCMCIA y tarjetas
USB:
El wifi puede ser desactivado por un terminal del
dispositivo.
Las tarjetas PCI para wifi se agregan (o vienen de
fábrica) a los ordenadores de sobremesa. Hoy en
día están perdiendo terreno debido a las tarjetas
USB. Dentro de este grupo también pueden
agregarse las tarjetas MiniPCI que vienen
integradas en casi cualquier computador portátil
disponible hoy en el mercado.
Las tarjetas PCMCIA son un modelo que se utilizó
mucho en los primeros ordenadores portátiles, ya
en desuso, debido a la integración de tarjeta
inalámbricas internas en estos ordenadores. La
mayor parte de estas tarjetas solo son capaces
de llegar hasta la tecnología B de wifi, no
permitiendo por tanto disfrutar de una velocidad
de transmisión demasiado elevada
Las tarjetas USB para wifi son el tipo de tarjeta
más común que existe en las tiendas y más
sencillo de conectar a un ordenador personal, ya
sea de sobremesa o portátil, disponiendo de
todas las ventajas de la tecnología USB. Hoy en
día puede encontrarse incluso tarjetas USB con el
estándar 802.11n (Wireless-N) que es el último
estándar liberado para redes inalámbricas.
También existen impresoras, cámaras Web y
otros periféricos que funcionan con la tecnología
wifi, permitiendo un ahorro de mucho cableado en
las instalaciones de redes y especialmente gran
movilidad de equipo.
En relación con los manejadores de dispositivo, existen
directorios de circuito integrado auxiliar de adaptadores
inalámbricos.7
Ventajas y desventajas[editar]
Las redes wifi poseen una serie de ventajas, entre las
cuales podemos destacar:
Al ser redes inalámbricas, la comodidad que ofrecen
es muy superior a las redes cableadas porque
cualquiera que tenga acceso a la red puede
conectarse desde distintos puntos dentro de un
espacio lo bastante amplio.
Una vez configuradas, las redes wifi permiten el
acceso de múltiples dispositivos sin ningún
problema ni gasto en infraestructura, ni gran
cantidad de cables.
La Alianza Wi-Fi asegura que la compatibilidad entre
dispositivos con la marca Wi-Fi es total, con lo que
en cualquier parte del mundo podremos utilizar la
tecnología wifi con una compatibilidad absoluta.
Pero como red inalámbrica, la tecnología wifi presenta
los problemas intrínsecos de cualquier tecnología
inalámbrica. Algunos de ellos son:
Una de las desventajas que tiene el sistema wifi es
una menor velocidad en comparación a una conexión
cableada, debido a las interferencias y pérdidas de
señal que el ambiente puede acarrear.
La desventaja fundamental de estas redes reside en
el campo de la seguridad. Existen algunos
programas capaces de capturar paquetes,
trabajando con su tarjeta wifi en modo promiscuo, de
forma que puedan calcular la contraseña de la red y
de esta forma acceder a ella. Las claves de tipo WEP
son relativamente fáciles de conseguir con este
sistema. La Alianza Wi-Fi arregló estos problemas
sacando el estándar WPA y posteriormente WPA2,
basados en el grupo de trabajo 802.11i. Las redes
protegidas con WPA2 se consideran robustas dado
que proporcionan muy buena seguridad. Este
problema se agrava si consideramos que no se
puede controlar el área de cobertura de una
conexión, de manera que un receptor se puede
conectar desde fuera de la zona de recepción
prevista (por ejemplo: desde fuera de una oficina,
desde una vivienda colindante).
Esta tecnología no es compatible con otros tipos de
conexiones sin cables como Bluetooth, GPRS, UMTS,
etc.
La potencia de la conexión del wifi se verá afectada
por los agentes físicos que se encuentran a nuestro
alrededor, tales como: árboles, paredes, arroyos, una
montaña, etc. Dichos factores afectan la potencia de
compartimiento de la conexión wifi con otros
dispositivos.
HotSpot WiFi, es un equipo de acceso que ofrece
cobertura wireless (sin cables) mediante estándares
WiFi, con el objetivo de establecer una comunicación
inalámbrica WiFi entre un dispositivo "cliente".
Una de las características a destacar de un HotSpot es
un portal cautivo que aparece al abrir el explorador y que
habitualmente solicita una identificación mediante User
y password.
Podrémos establecer prioridades de quién se conecta
(clientes, invitados, empleados, administradores, ect.) y
además del control e información para poder rentabilizar
nuestra red.
Podemos establecer franjas horarias para la conexión
de nuestros clientes según nuestra política de
marketing, servicio contratado …
Podemos establecer el tiempo de conexión según el tipo
de cliente, o bien establecer diferentes tarifas en función
del tiempo. Nos puede ser de gran utilidad para
negocios como restaurantes o bares.
Podrémos repartir el caudal del que disponemos
dependiendo del tipo y número de clientes / usuarios,
consiguiendo rentabilizar al máximo el total de ancho de
banda disponible.
Para evitar abusos (vídeos, P2P, música...) podemos
limitar el consumo total, estableciendo reglas.
Guardar un LOG es una de las funcionalidades más
importantes. Guardaremos un historial de todas las
conexiones que se realicen desde nuestro
establecimiento (es un método de seguridad obligatorio
por ley).
¿Te animas a instalar una red WiFi con HotSpot?
WifiSafe se dirige a profesionales, pequeñas y medianas
empresas, grandes organizaciones y compañías o
administraciones públicas, como una alternativa de
solución segura y profesional.

Más contenido relacionado

PPTX
Adobe flash player
PPTX
Adobe flash player
PPSX
ODP
Flash player
PPT
Angelagamarra q
PPTX
Historia de flash
PPTX
Taller1 de zaskia aguilar
Adobe flash player
Adobe flash player
Flash player
Angelagamarra q
Historia de flash
Taller1 de zaskia aguilar

La actualidad más candente (17)

ODP
Travajos
PPTX
Adobe Flash Player
PDF
Historia de Flash Player
PPTX
Adobe flash player
PPTX
Historia de flash
PPTX
La historia de flash
PPTX
Adobe flash player
PPTX
Historia de flash
PPTX
Adobe flash player miranda
PPTX
historia de flash
PPTX
Flash informatica
PPTX
Historia de flash
PPTX
Historia de flash
PPTX
Flash
ODP
Flash player
ODP
Flash player
PPTX
Historia de flash 2 a2
Travajos
Adobe Flash Player
Historia de Flash Player
Adobe flash player
Historia de flash
La historia de flash
Adobe flash player
Historia de flash
Adobe flash player miranda
historia de flash
Flash informatica
Historia de flash
Historia de flash
Flash
Flash player
Flash player
Historia de flash 2 a2
Publicidad

Similar a Braudicomputadora.webs.com aprendizaje parte 2 (15)

PPSX
Adobe flash player yupanqui b2
ODP
Flash player
PPTX
Historia de flash
PPSX
Ana aristega adobe flash
PPTX
Historia de flash
PPTX
Historia de flash
PPTX
ALEXANDRA
PPT
Flash presentacion
PPSX
Ana aristega flash player
PPSX
Ana aristega flash player
PPTX
Ana aristega flash player
PPTX
Historia de flash julianna
PPTX
Carla proaño historia del flash
PPT
Bajaña mera maria 2b2
PPT
Bajaña mera maria 2b2
Adobe flash player yupanqui b2
Flash player
Historia de flash
Ana aristega adobe flash
Historia de flash
Historia de flash
ALEXANDRA
Flash presentacion
Ana aristega flash player
Ana aristega flash player
Ana aristega flash player
Historia de flash julianna
Carla proaño historia del flash
Bajaña mera maria 2b2
Bajaña mera maria 2b2
Publicidad

Último (20)

DOCX
Trabajo grupal.docxjsjsjsksjsjsskksjsjsjsj
PPTX
unidad 3 tecnología 8° básico: planificación y elaboración de un objeto
DOCX
TRABAJO GRUPAL (5) (1).docxjsjsjskskksksk
PDF
Documental Beyond the Code (Dossier Presentación - 2.0)
DOCX
TRABAJO GRUPAL (5) (1).docxsjjsjsksksksksk
PDF
TRABAJO DE TECNOLOGIA.pdf...........................
PPTX
CLAASIFICACIÓN DE LOS ROBOTS POR UTILIDAD
PDF
Tips de Seguridad para evitar clonar sus claves del portal bancario.pdf
PDF
informe_fichas1y2_corregido.docx (2) (1).pdf
PDF
Distribucion de frecuencia exel (1).pdf
PPTX
Power Point Nicolás Carrasco (disertación Roblox).pptx
PPTX
modulo seguimiento 1 para iniciantes del
PDF
PRESENTACIÓN GENERAL MIPIG - MODELO INTEGRADO DE PLANEACIÓN
PPTX
Propuesta BKP servidores con Acronis1.pptx
PPTX
ANCASH-CRITERIOS DE EVALUACIÓN-FORMA-10-10 (2).pptx
PPT
Protocolos de seguridad y mecanismos encriptación
DOCX
Guía 5. Test de orientación Vocacional 2.docx
PPTX
Historia Inteligencia Artificial Ana Romero.pptx
DOCX
TRABAJO GRUPAL (5) (1).docxjesjssjsjjskss
PDF
0007_PPT_DefinicionesDeDataMining_201_v1-0.pdf
Trabajo grupal.docxjsjsjsksjsjsskksjsjsjsj
unidad 3 tecnología 8° básico: planificación y elaboración de un objeto
TRABAJO GRUPAL (5) (1).docxjsjsjskskksksk
Documental Beyond the Code (Dossier Presentación - 2.0)
TRABAJO GRUPAL (5) (1).docxsjjsjsksksksksk
TRABAJO DE TECNOLOGIA.pdf...........................
CLAASIFICACIÓN DE LOS ROBOTS POR UTILIDAD
Tips de Seguridad para evitar clonar sus claves del portal bancario.pdf
informe_fichas1y2_corregido.docx (2) (1).pdf
Distribucion de frecuencia exel (1).pdf
Power Point Nicolás Carrasco (disertación Roblox).pptx
modulo seguimiento 1 para iniciantes del
PRESENTACIÓN GENERAL MIPIG - MODELO INTEGRADO DE PLANEACIÓN
Propuesta BKP servidores con Acronis1.pptx
ANCASH-CRITERIOS DE EVALUACIÓN-FORMA-10-10 (2).pptx
Protocolos de seguridad y mecanismos encriptación
Guía 5. Test de orientación Vocacional 2.docx
Historia Inteligencia Artificial Ana Romero.pptx
TRABAJO GRUPAL (5) (1).docxjesjssjsjjskss
0007_PPT_DefinicionesDeDataMining_201_v1-0.pdf

Braudicomputadora.webs.com aprendizaje parte 2

  • 1. braudicomputadora.webs.com braudicomputadora.webs.com 308-391 minutos braudicomputadora.webs.com creador de la web por: Braudi Arismendy Hernandez Carrasco que es braudicomputadora.webs.com es una pagina web que habla sobre computadora y habla sobre la cosa en informatica y ciberneticamente esta pagina es desarrollado por braudicomputadora.webs.com Que es Adobe Flash Player Flash Player es una aplicación informática englobada en la categoría de reproductor multimedia. Fue creado inicialmente por Macromedia y actualmente distribuido por Adobe Systems.
  • 2. Permite reproducir archivos en formato SWF, creados con la herramienta Animate CC2 o Flex de la propia Adobe, o con otras herramientas de terceros. Estos archivos se reproducen en un entorno determinado. En un sistema operativo tiene el formato de aplicación del sistema, mientras que si el entorno es un navegador, su formato es el de un complemento u objeto ActiveX. Animate CC (antiguamente tenían el mismo nombre, Flash) se refiere al programa de creación de animaciones. Estrictamente hablando, Animate es el entorno de creación, y Flash Player es el reproductor o máquina virtual. Sin embargo, en lenguaje coloquial se usaba el término Flash para referirse al entorno, al reproductor e, incluso, a los archivos generados. Flash Player tiene soporte para un lenguaje de programación interpretado conocido como ActionScript (AS) basado en el estándar ECMAScript. Desde su origen AS ha pasado de ser un lenguaje muy básico a un lenguaje avanzado con soporte de programación orientada a objetos, comparable en funciones y uso al lenguaje JavaScript (también basado en ECMAScript).3 Originalmente creado para mostrar animaciones vectoriales en 2 dimensiones, ha pasado a convertirse en la opción preferida a la hora de crear aplicaciones Web que incluyen flujo de audio y video e interactividad. La utilización de gráficos vectoriales le permite disminuir el ancho de banda necesario para la transmisión y, por ende, el tiempo de carga de la aplicación.4 Flash Player está disponible para las versiones más recientes de los navegadores más populares (Internet
  • 3. Explorer, Safari, Opera, etcétera). El navegador Chrome de Google no lo necesita porque distribuye su propia versión con el programa. Historial de versiones[editar] A continuación se mencionarán las principales versiones de Flash Player junto con su fecha de lanzamiento y sus características principales. Flash Player 2[editar] Su fecha de lanzamiento fue en 1997. Principalmente vectores en movimiento y algunos gráficos rasterizados. Sonido estéreo de forma limitada, integración de mapas de bits mejorados, botones, la Biblioteca y la capacidad de interpolar cambios de colores. Flash Player 3[editar] Su fecha de lanzamiento fue en 1998. Añadida la transparencia alfa y la licencia de compresión MP3 . Mejoras a la animación, la reproducción y publicación, así como la introducción de comandos sencillos para obtener interactividad. Flash Player 4[editar] Fecha de aparición: mayo de 1999. Dio paso a la introducción de streaming MP3 y a la interpolación de movimiento. Inicialmente el plug-in de Flash Player no fue incluido con los navegadores web más populares y los usuarios tenían que visitar el sitio
  • 4. web de Macromedia para descargarlo. A partir del año 2000, sin embargo, Flash Player empezó a ser distribuido en los navegadores AOL, Netscape e Internet Explorer. Dos años más tarde venía incluido como complemento en todas las versiones de Windows XP. La instalación del reproductor de Flash alcanzó el 92 por ciento de los usuarios de Internet.5 Flash Player 5[editar] Fecha de aparición: agosto de 2000. Un gran paso adelante en sus características, con la evolución de las capacidades de scripting de Flash, se presenta como ActionScript. Agregó la posibilidad de personalizar la interfaz del entorno de edición. Generator de Macromedia fue la primera iniciativa de Macromedia para el diseño independiente de contenido en archivos Flash. Generator 2.0 fue lanzado en abril de 2001 y muestra el contenido de Flash en tiempo real de generación del servidor en su versión Enterprise Edition. Generator se suspendió en 2002 a favor de las nuevas tecnologías como Flash Remoting, que permite la transmisión ininterrumpida de datos entre el servidor y el cliente y el servidor ColdFusion. En octubre de 2000, el gurú de la usabilidad Jakob Nielsen ha escrito un artículo polémico sobre la usabilidad de los contenidos Flash titulado "Flash 99% Bad". (Macromedia contrató a Nielsen para ayudarles a mejorar la usabilidad de Flash.) Flash Player 6[editar] Fecha de aparición de la versión 6.0.21.0: marzo de 2001. Apoyo al consumo de Flash Remoting (AMF) y
  • 5. servicios Web (SOAP). Apoyo ondemand / audio en vivo y video streaming (RTMP). Apoyo a los lectores de pantalla a través de Microsoft Active Accessibility. Añadido Sorenson chispa códec de vídeo de Flash Video. Soporte para video, componentes de aplicación, librerías compartidas, y la accesibilidad.g Macromedia Flash Communication Server MX, también lanzado en 2002, permitió video para ser escuchados en Flash Player 6 (de lo contrario el video puede ser embebido en la película de Flash). Flash Player 7[editar] Apoyo ActionScript 2.0, Lenguaje de programación orientado a objetos para los desarrolladores. Capacidad para crear tablas, gráficos y efectos adicionales de texto con el nuevo soporte para extensiones (se vende por separado), la importación de alta fidelidad de los archivos PDF y Adobe Illustrator 10, móvil y el desarrollo de dispositivos y un entorno de desarrollo basado en formularios. ActionScript 2.0 también se introdujo, dando a los desarrolladores un enfoque formal orientado a objetos en ActionScript. Componentes V2 sustituirá los componentes de Flash MX, siendo re-escrito desde cero para aprovechar las características de ActionScript 2.0 y principios orientados a objetos. En 2004, la "plataforma Flash" fue introducida. Ampliando el Flash de la herramienta de edición de Flash. Flex 1.0 y 1.0 Brisa fueron liberados, los cuales
  • 6. utilizan el Flash Player como un método de entrega, pero se basó en otras herramientas que el programa de edición de Flash para crear aplicaciones Flash y presentaciones. Flash Lite 1.1 también fue lanzado, permitiendo a los teléfonos móviles reproducir contenido Flash. Flash Player 8[editar] Fecha de aparición de la versión 8.0.22.0: agosto de 2005. Soporte para la carga en tiempo de ejecución de las imágenes GIF y PNG. Nuevo codec de vídeo (On2 VP6). Mejora del rendimiento en tiempo de ejecución y de mapa de bits en tiempo de ejecución de almacenamiento en caché. Filtros en vivo y blendmodes. Carga de archivos y capacidad de descarga Nuevo motor de procesamiento de texto. Subsistema ExternalAPI introducido para reemplazar fscommand (). El 3 de diciembre de 2005, Adobe Systems adquirió los productos de Macromedia (incluyendo Flash) . Flash Player 9[editar] Fecha de aparición de la versión 9.0.15.0: junio de 2006. Nuevo motor de scripting ECMAScript, ActionScript Virtual Machine AVM2. AVM1 se conserva por compatibilidad. ActionScript 3 a través de AVM2.
  • 7. E4X, que es un nuevo enfoque de análisis XML. Soporte para sockets binarios. Soporte para expresiones regulares y espacios de nombres. ECMAScript 4 máquina virtual donada a la Fundación Mozilla y el llamado Tamarin. Flash Player 9 Update 1 Linux[editar] Fecha de aparición de la versión 9.0.28.0: noviembre de 2006. Soporte para el modo de pantalla completa. Flash Player 9 Update 2[editar] Fecha de aparición de la versión 9.0.47.0 9.0.48.0: julio de 2007. Actualización de seguridad Flash Player 9 Update 38[editar] Fecha de aparición de la versión 9.0.115.0: diciembre de 2007. H.264 El perfil principal del AAC (HE-AAC, AAC y AAC LC-). Nuevo formato de archivo Flash Video F4V basado en la ISO Base Media File Format (MPEG-4 Parte 12). Soporte para formatos de contenedor basado en los medios de comunicación de archivos ISO [31]. Flash Player 10[editar] Versión 10.0.12.36: octubre de 2009. Nuevas características
  • 8. Transformaciones de objetos 3D. Filtros personalizados a través de Pixel Bender. Soporte avanzado para texto. Speex códec de audio. Protocolo de flujo en los medios de comunicación en tiempo real (RTMFP). Generación de sonido dinámico. Tipo de datos vectoriales. Características mejoradas Ampliar el soporte al mapa de bits. Gráficos API de dibujo. Menú contextual. Aceleración de hardware. Motor anti-aliasing (Saffron 3,1). Lectura/escritura clipboard. Wmode. Adobe Flash Player 10.1[editar] Versión 10.1.53.64: junio de 2010. Reutilización de mapas de bits copiados para una mejor gestión de memoria. Implementado un recolector de basura. Decodificación por hardware de video codificado con H.264. Flujo dinámico por HTTP. Soporte para modos de privacidad. API para soporte multitáctil. Para OS X: Uso de la interfaz Cocoa para Mac Uso del contexto OpenGl de doble búfer para
  • 9. pantalla completa. Origen de Flash[editar] Hasta la llegada de HTML5, mostrar el vídeo en una página web requería que el navegador disponga del plugin, que son los únicos ejecutados por terceros proveedores. Prácticamente todos los plugins existentes para vídeo son libres y multiplataforma, se incluye la oferta de Adobe de Flash Video, el cual fue introducido por primera vez con la versión de Flash 6. Flash Video ha sido una opción popular para los sitios web debido a la gran cantidad de usuarios que tienen instalada esta tecnología y también a la capacidad de programación de Flash. En 2010, Apple criticó públicamente la aplicación de Adobe Flash de reproducción de vídeo por no tomar ventaja de la aceleración de hardware, además criticó toda la tecnología Flash en general, argumentando que no es un estándar abierto, y que afectaba el rendimiento de las baterías de sus equipos, razones por las que no lo incluirla en sus dispositivos móviles. Poco después de las críticas de Apple, Adobe lanzó una versión beta de Flash 10.1, que hace uso de la aceleración de hardware, incluso en un Mac. Flash Audio[editar] El audio en Flash es más comúnmente codificado en MP3 o AAC (Advanced Audio Coding). Sin embargo, también es compatible con ADPCM, códecs Nellymoser (Nellymoser Asao Codec) y Speex audio.
  • 10. Flash permite frecuencias de muestreo de 11, 22 y 44,1 kHz. No es compatible con frecuencias de muestreo de audio de 48 kHz, que es el estándar de televisión y DVD. El 20 de agosto de 2007, Adobe anunció en su blog que con la actualización 3 de Flash Player 9, Flash Video también soportaría algunas partes de la especificación MPEG-4 de la normativa internacional. En concreto, Flash Player tendrá soporte para video comprimido en H 0.264 (MPEG-4 Parte 10), para audio comprimido con AAC (MPEG-4 Parte 3), el F4V, MP4 (MPEG-4 Parte 14), M4V, M4A, 3GP y formatos de contenido multimedia MOV, especificación de textos programados 3GPP (MPEG-4 Parte 17), que es un formato normalizado de subtítulos y soporta análisis parcial para «ilst atom, el cual es el ID3 equivalente de iTunes utilizado para almacenar los metadatos. MPEG-4 Parte 2 y H.263 no soportan el formato de archivo F4V. Adobe también anunció que se irá alejando del formato FLV para acercarse al formato estándar ISO para multimedia (MPEG-4 parte 12), debido a los límites funcionales de FLV y el streaming de H.264. La versión final del reproductor de Flash soportó algunas partes de los estándares MPEG-4 que se encontró disponible en el otoño de 2007. Seguridad[editar] Como cualquier aplicación que trata archivos recibidos de Internet es susceptible a los ataques. Los archivos especialmente elaborados podrían hacer que la aplicación funcionara mal, permitiendo la ejecución potencial de código maligno. No se tiene conocimiento de problemas reales y concretos, pero el plug-in del Player ha tenido defectos de seguridad que
  • 11. teóricamente podrían haber puesto en peligro un ordenador a los ataques remotos. No ha habido (publicados) incidentes de seguridad desde entonces. Flash Player es considerado seguro de usar, especialmente cuando se compara con los navegadores modernos y aplicaciones de uso. Los archivos de aplicaciones Flash pueden ser decompilados muy fácilmente en su código fuente y sus valores. Hay disponibles varios programas que extraen gráficos, sonido y código de programa a partir de archivos SWF. Por ejemplo, un programa de código abierto denominado Flasm permite a los usuarios extraer ActionScript a partir de un archivo SWF como máquina virtual de lenguaje intermedio ("bytecode"), editarlo, y luego volverlo a insertar en el archivo. La ofuscación de los archivos SWF hace prácticamente imposible la extracción en la mayoría de los casos. Críticas a Flash[editar] Steve Jobs, co-fundador de Apple, se negó a incorporar Flash en los productos iPhone, iPod y iPad. Las razones que aducía eran las siguientes:6 Es un software 100% propietario, es decir, cerrado a los aportes de terceros. 1. Hay un formato de video más moderno, H.264, que está disponible en los citados dispositivos de Apple. En cuanto a animación e interactividad HTML5 y CSS3 ofrecen prestaciones similares sin necesidad de plug ins propietarios. 2. Tiene un antiguo historial de problemas de seguridad no resueltos. 3. Requiere decodificación por hardware, lo que puede4.
  • 12. aumentar hasta en un 100% el uso de la batería de dispositivos móviles. Recientes bloqueos[editar]Mozilla Firefox[editar] En julio de 2015, Mozilla Firefox se sumó a las críticas hechas en torno a las vulnerabilidades explotadas por los hackers que les permitían acceder de forma remota a sus computadoras. El presidente de Mozilla, Mark Schmidt, por medio de su cuenta de Twitter informó que todas las versiones de Flash serían desactivadas del navegador[cita requerida]; la mayoría de usuarios no notan el cambio, porque cada vez menos sitios web utilizan Adobe Flash Player.[cita requerida] Google Chrome[editar] Google Chrome terminó el soporte por posibles ataques al grupo Hacking Team y ataques del día cero.7 Que es Joint Photographic Experts Group conocido como JPEG Joint Photographic Experts Group (JPEG), traducido al español como Grupo Conjunto de Expertos en Fotografía, es el nombre de un comité de expertos que creó un estándar de compresión y codificación de archivos e imágenes fijas. Este comité fue integrado desde sus inicios por la fusión de varias agrupaciones en un intento de compartir y desarrollar su experiencia en la digitalización de imágenes. La ISO, tres años antes (abril de 1983), había iniciado sus investigaciones en el área.
  • 13. Además de ser un método de compresión, es a menudo considerado como un formato de archivo. JPEG/Exif es el formato de imagen más común, utilizado por las cámaras fotográficas digitales y otros dispositivos de captura de imagen, junto con JPG/JFIF, que también es otro formato para el almacenamiento y la transmisión de imágenes fotográficas en la World Wide Web. Estas variaciones de formatos a menudo no se distinguen, y se llaman “JPEG”. Los archivos de este tipo se suelen nombrar con la extensión .jpg. Compresión del JPEG[editar] Comparativa de calidad entre la imagen original, comprimida en JPG (con pérdida) y comprimida en WebP (con pérdida). El formato JPEG utiliza habitualmente un algoritmo de compresión con pérdida para reducir el tamaño de los archivos de imágenes. Esto significa que al descomprimir o visualizar la imagen no se obtiene exactamente la misma imagen de la que se partía antes de la compresión. Existen también tres variantes del estándar JPEG que comprimen la imagen sin pérdida de datos: JPEG 2000, JPEG-LS y Lossless JPEG. El algoritmo de compresión JPEG se basa en dos fenómenos visuales del ojo humano: uno es el hecho de que es mucho más sensible al cambio en la luminancia que en la crominancia; es decir, capta más claramente los cambios de brillo que de color. El otro es que nota con más facilidad pequeños cambios de brillo en zonas homogéneas que en zonas donde la variación es grande, por ejemplo en los bordes de los cuerpos de los objetos. Una de las características del JPEG es la flexibilidad a la
  • 14. hora de ajustar el grado de compresión. Un grado de compresión muy alto generará un archivo de pequeño tamaño, a costa de una pérdida significativa de calidad. Con una tasa de compresión baja se obtiene una calidad de imagen muy parecida a la del original, pero con un tamaño de archivo mayor. La pérdida de calidad cuando se realizan sucesivas compresiones es acumulativa. Esto significa que si se comprime una imagen y se descomprime, se perderá calidad de imagen, pero si se vuelve a comprimir una imagen ya comprimida se obtendrá una pérdida todavía mayor. Cada sucesiva compresión causará pérdidas adicionales de calidad. La compresión con pérdida no es conveniente en imágenes o gráficos que tengan textos, líneas o bordes muy definidos, pero sí para archivos que contengan grandes áreas de colores sólidos. Codificación[editar] Muchas de las opciones del estándar JPEG se usan poco. Esto es una descripción breve de uno de los muchos métodos usados comúnmente para comprimir imágenes cuando se aplican a una imagen de entrada con 24 bits por pixel (ocho por cada rojo, verde, y azul, o también dicho "8 bits por canal"). Esta opción particular es un método de compresión con pérdida. Transformación del espacio de color[editar] Comienza convirtiendo la imagen desde su modelo de color RGB a otro llamado YUV o YCbCr. Este espacio de color es similar al que usan los sistemas de color para televisión PAL y NTSC, pero es mucho más parecido al sistema de televisión MAC (Componentes Analógicas Multiplexadas).
  • 15. Este espacio de color (YUV) tiene tres componentes: La componente Y, o luminancia (información de brillo); es decir, la imagen en escala de grises. Las componentes U o Cb y V o Cr, respectivamente diferencia del azul (relativiza la imagen entre azul y rojo) y diferencia del rojo (relativiza la imagen entre verde y rojo); ambas señales son conocidas como crominancia (información de color). Las ecuaciones que realizan este cambio de base de RGB a YUV son las siguientes: Y = 0,257 * R + 0,504 * G + 0,098 * B + 16 Cb = U = -0,148 * R - 0,291 * G + 0,439 * B + 128 Cr = V = 0,439 * R - 0,368 * G - 0,071 * B + 128 Las ecuaciones para el cambio inverso se pueden obtener despejando de las anteriores y se obtienen las siguientes: B = 1,164 * (Y - 16) + 2,018 * (U - 128) G = 1,164 * (Y - 16) - 0,813 * (V - 128) - 0,391 * (U - 128) R = 1,164 * (Y - 16) + 1,596 * (V - 128) NOTA: Estas ecuaciones están en continua investigación, por lo que se pueden encontrar en libros y en la red otras ecuaciones distintas pero con coeficientes muy parecidos. Si se analiza el primer trío de ecuaciones veremos que las tres componentes toman como valor mínimo el 16. El canal de luminancia (canal Y) tiene como valor máximo el 235, mientras que los canales de crominancia el 240. Todos estos valores caben en un byte haciendo redondeo al entero más próximo. Durante esta fase no
  • 16. hay pérdida significativa de información, aunque el redondeo introduce un pequeño margen de error imperceptible para el ojo humano. Submuestreo[editar] Ligera explicación visual sobre el submuestreo. La imagen de arriba a la izquierda es la original; las otras sufren unos submuestreos de color agresivos que dan idea de los efectos de esta técnica. Ampliar para mejor visualización. El algoritmo JPEG transforma la imagen en cuadrados de 8×8 y luego almacena cada uno de estos como una combinación lineal o suma de los 64 recuadros que forman esta imagen; esto permite eliminar detalles de forma selectiva. Por ejemplo, si una casilla tiene un valor muy próximo a 0, puede ser eliminada sin que afecte mucho a la calidad. Una opción que se puede aplicar al guardar la imagen es reducir la información del color respecto a la de brillo (debido al fenómeno visual en el ojo humano comentado anteriormente). Hay varios métodos: si este paso no se aplica, la imagen sigue en su espacio de color YUV (este submuestreo se entiende como 4:4:4), con lo que la imagen no sufre pérdidas. Puede reducirse la información cromática a la mitad, 4:2:2(reducir en un factor de 2 en dirección horizontal), con lo que el color tiene la mitad de resolución (en horizontal) y el brillo sigue intacto. Otro método, muy usado, es reducir el color a la cuarta parte, 4:2:0, en el que el color se reduce en un factor de 2 en ambas direcciones, horizontal y vertical. Si la imagen de partida estaba en escala de grises (blanco y negro), puede eliminarse por completo
  • 17. la información de color, quedando como 4:0:0. Algunos programas que permiten el guardado de imágenes en JPEG (como el que usa GIMP) se refieren a estos métodos con 1×1,1×1,1×1para YUV 4:4:4 (no perder color), 2×1,1×2,1×1 para YUV 4:2:2 y 2×2,1×1,1×1 para el último método, YUV 4:2:0. Las técnicas algorítmicas usadas para este paso (para su reconstrucción exactamente) suelen ser interpolación bilineal, vecino más próximo, convolución cúbica, Bezier, b-spline y Catmun-Roll.rh Transformación discreta de coseno (DCT)[editar] Cada componente de la imagen se divide en pequeños bloques de 8×8 píxeles, que se procesan de forma casi independiente, lo que disminuye notablemente el tiempo de cálculo. De esto resulta la típica formación cuadriculada, que se vuelve visible en las imágenes guardadas con alta compresión. Si la imagen sufrió un submuestreo del color, los colores quedarían en la imagen final en bloques de 8×16 y 16×16 píxeles, según fuese 4:2:2 o 4:2:0. Después, cada pequeño bloque se convierte al dominio de la frecuencia a través de la transformación discreta de coseno, abreviadamente llamada DCT. Un ejemplo de uno de esos pequeños bloques de 8×8 inicial es este: {displaystyle {begin{bmatrix}52&55&61&66&70&61&64&73 63&59&55&90&109&85&69&72 62&59&68&113&144&104&66&73
  • 18. 63&58&71&122&154&106&70&69 67&61&68&104&126&88&68&70 79&65&60&70&77&68&58&75 85&71&64&59&55&61&65&83 87&79&69&68&65&76&78&94end{bmatrix}}} El siguiente proceso es restarles 128 para que queden números entorno al 0, entre -128 y 127. {displaystyle {begin{bmatrix}-76&-73&-67&-62&- 58&-67&-64&-55-65&-69&-73&-38&-19&-43&-59&- 56-66&-69&-60&-15&16&-24&-62&-55-65&-70&-57&- 6&26&-22&-58&-59-61&-67&-60&-24&-2&-40&-60&- 58-49&-63&-68&-58&-51&-60&-70&-53-43&-57&-64&- 69&-73&-67&-63&-45-41&-49&-59&-60&-63&-52&-50&- 34end{bmatrix}}} Se procede a la transformación por DCT de la matriz, y el redondeo de cada elemento al número entero más cercano. {displaystyle {begin{bmatrix}-415&-30&-61&27&56&- 20&-2&04&-22&-61&10&13&-7&-9&5-47&7&77&- 25&-29&10&5&-6-49&12&34&-15&-10&6&2&212&- 7&-13&-4&-2&2&-3&3-8&3&2&-6&-2&1&4&2-1&0&0&- 2&-1&-3&4&-10&0&-1&-4&-1&0&1&2end{bmatrix}}} Nótese que el elemento más grande de toda la matriz aparece en la esquina superior izquierda; este es el coeficiente DC. Cuantificación digital[editar] "Antes de", en un bloquecillo 8×8 (ampliación ×16). "Después de", en un bloquecillo 8×8, se notan errores
  • 19. respecto a la primera imagen, como en la esquina inferior izquierda, que está más clara. El ojo humano es muy bueno detectando pequeños cambios de brillo en áreas relativamente grandes, pero no cuando el brillo cambia rápidamente en pequeñas áreas (variación de alta frecuencia). Debido a esta condición, se puede eliminar las altas frecuencias, sin pérdida excesiva de calidad visual. Esto se realiza dividiendo cada componente en el dominio de la frecuencia por una constante para ese componente, y redondeándolo a su número entero más cercano. Este es el proceso en el que se pierde la mayor parte de la información (y calidad) cuando una imagen es procesada por este algoritmo. El resultado de esto es que los componentes de las altas frecuencias, tienden a igualarse a cero, mientras que muchos de los demás, se convierten en números positivos y negativos pequeños. Una matriz de cuantificación típica es la matriz de Losheller que se usa opcionalmente en el estándar JPEG: {displaystyle {begin{bmatrix}16&11&10&16&24&40&51&61 12&12&14&19&26&58&60&55 14&13&16&24&40&57&69&56 14&17&22&29&51&87&80&62 18&22&37&56&68&109&103&77 24&35&55&64&81&104&113&92 49&64&78&87&103&121&120&101 72&92&95&98&112&100&103&99end{bmatrix}}} Dividiendo cada coeficiente de la matriz de la imagen transformada entre cada coeficiente de la matriz de
  • 20. cuantificación, se obtiene esta matriz, ya cuantificada: {displaystyle {begin{bmatrix}-26&-3&-6&2&2&- 1&0&00&-2&-4&1&1&0&0&0-3&1&5&-1&-1&0&0&0 -4&1&2&-1&0&0&0&01&0&0&0&0&0&0&0 0&0&0&0&0&0&0&00&0&0&0&0&0&0&0 0&0&0&0&0&0&0&0end{bmatrix}}} Por ejemplo, cuantificando el primer elemento, el coeficiente DC, sería así: {displaystyle mathrm {round} left({frac {-415} {16}}right)=mathrm {round} left(-25.9375right)=- 26}Codificación entrópica[editar] La codificación entrópica es una forma especial de la compresión sin pérdida de datos. Para ello se toman los elementos de la matriz siguiendo una forma de zig-zag, poniendo grupos con frecuencias similares juntos, e insertando ceros de codificación, y usando la codificación Huffman para lo que queda. También se puede usar la codificación aritmética, superior a la de Huffman, pero que rara vez se usa, ya que está cubierta por patentes, esta compresión produce archivos un 5% menores, pero a costa de un mayor tiempo de codificación y decodificación, esta pequeña ganancia, puede emplearse también en aplicar un menor grado de compresión a la imagen, y obtener más calidad para un tamaño parecido. En la matriz anterior, la secuencia en zig-zag, es esta: −26, −3, 0, −3, −2, −6, 2, −4, 1 −4, 1, 1, 5, 1, 2, −1, 1, −1, 2, 0, 0, 0, 0, 0, −1, −1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0 JPEG tiene un código Huffman para cortar la cadena
  • 21. anterior en el punto en el que el resto de coeficientes sean ceros, y así, ahorrar espacio: −26, −3, 0, −3, −2, −6, 2, −4, 1 −4, 1, 1, 5, 1, 2, −1, 1, −1, 2, 0, 0, 0, 0, 0, −1, −1, EOB Ruido producido por la compresión[editar] Tras la compresión, suelen quedar a veces bloques como estos, en este caso en un trozo de una imagen ampliado. El resultado tras la compresión, puede variar, en función de la agresividad de los divisores de la matriz de cuantización, a mayor valor de esos divisores, más coeficientes se convierten en ceros, y más se comprime la imagen. Pero mayores compresiones producen mayor ruido en la imagen, empeorando su calidad. Una imagen con una fuerte compresión (1%-15%) puede tener un tamaño de archivo mucho menor, pero tendrá tantas imperfecciones que no será interesante, una compresión muy baja (98%-100%) producirá una imagen de muy alta calidad, pero, tendrá un tamaño tan grande que quizás interese más un formato sin pérdida como PNG. La mayoría de personas que naveguen por Internet estarán familiarizadas con estas imperfecciones, que son el resultado de lograr una buena compresión. Para evitarlas, se tendrá que reducir el nivel de compresión o aplicar compresión sin pérdida, produciendo mayores ficheros después. Decodificación[editar] El proceso de decodificación es similar al seguido hasta ahora, sólo que de forma inversa. En este caso, al haber perdido información, los valores finales no coincidirán
  • 22. con los iniciales. Se toma la información de la matriz, se decodifica, y se pone cada valor en su casilla correspondiente. Después se multiplica cada uno de estos valores por el valor correspondiente de la matriz de cuantización usada, como muchos valores son ceros, sólo se recuperan ( y de forma aproximada) los valores de la esquina superior izquierda. Después se deshace la transformación DCT: {displaystyle {begin{bmatrix}-416&-33&-60&32&48&- 40&0&00&-24&-56&19&26&0&0&0-42&13&80&- 24&-40&0&0&0-56&17&44&-29&0&0&0&0 18&0&0&0&0&0&0&00&0&0&0&0&0&0&0 0&0&0&0&0&0&0&00&0&0&0&0&0&0&0 end{bmatrix}}}{displaystyle {begin{bmatrix}-68&-65&- 73&-70&-58&-67&-70&-48-70&-72&-72&-45&-20&- 40&-65&-57-68&-76&-66&-15&22&-12&-58&-61-62&- 72&-60&-6&28&-12&-59&-56-59&-66&-63&-28&-8&- 42&-69&-52-60&-60&-67&-60&-50&-68&-75&-50-54&- 46&-61&-74&-65&-64&-63&-45-45&-32&-51&-72&-58&- 45&-45&-39end{bmatrix}}} Y finalmente se suma 128 a cada entrada: {displaystyle {begin{bmatrix}60&63&55&58&70&61&58&80 58&56&56&83&108&88&63&71 60&52&62&113&150&116&70&67 66&56&68&122&156&116&69&72 69&62&65&100&120&86&59&76 68&68&61&68&78&60&53&78 74&82&67&54&63&64&65&83 83&96&77&56&70&83&83&89end{bmatrix}}}
  • 23. Para comparar las diferencias entre el bloque original y el comprimido, se halla la diferencia entre ambas matrices, la media de sus valores absolutos, da una ligera idea de la calidad perdida: {displaystyle {begin{bmatrix}-8&-8&6&8&0&0&6&- 75&3&-1&7&1&-3&6&12&7&6&0&-6&-12&-4&6- 3&2&3&0&-2&-10&1&-3-2&-1&3&4&6&2&9&-611&- 3&-1&2&-1&8&5&-311&-11&-3&5&-8&-3&0&04&-17&- 8&12&-5&-7&-5&5end{bmatrix}}} Se puede observar que las mayores diferencias están cerca de la mancha, y por la parte inferior, entre la esquina izquierda y el centro, notándose más esta última, ya que corre una mancha clara que antes estaba más hacia la esquina. La media de los valores absolutos de las restas es 4.8125, aunque en algunas zonas es mayor. Portable Network Graphics conocido como un Png Portable Network Graphics (PNG) (siglas en inglés de Gráficos de Red Portátiles, pronunciadas "ping") es un formato gráfico basado en un algoritmo de compresión sin pérdida para bitmaps no sujeto a patentes. Este formato fue desarrollado en buena parte para solventar las deficiencias del formato GIF y permite almacenar imágenes con una mayor profundidad de contraste y otros importantes datos. Las imágenes PNG usan la extensión .png y han obtenido un tipo MIME (image/png) aprobado el 14 de octubre de 1996.
  • 24. Detalles técnicos[editar] Un archivo PNG empieza con una firma de 8 bytes, los valores en hexadecimal son: 89 50 4E 47 0D 0A 1A 0A, los valores decimales son: 137 80 78 71 13 10 26 10; cada valor está ahí por una razón específica.1 [[PASTING TABLES IS NOT SUPPORTED]]Segmentos del archivo[editar] Después de la cabecera se encuentran una serie de segmentos de los cuales cada uno guarda cierta información acerca de la imagen. Los segmentos se auto declaran como puntos críticos (critical) o auxiliares (ancillary) de modo que un programa que encuentre un segmento auxiliar y no lo entienda puede ignorarlo sin peligro. La estructura basada en segmentos está diseñada para poder ampliar el formato PNG manteniendo la compatibilidad con versiones antiguas. Cada una de las secciones tiene una cabecera que específica su tamaño y tipo, inmediatamente seguido de los datos y el checksum de los datos. Las secciones tienen un nombre de 4 letras que es sensible a las mayúsculas. El uso de mayúsculas o minúsculas en dicho nombre provee a los decodificadores de información acerca de las secciones que no son reconocidas. Si la primera letra es mayúscula esto indica que la sección es esencial, en caso contrario será auxiliar. Las secciones esenciales son necesarias para leer el fichero, si el decodificador encuentra una sección esencial que no reconoce debe abortar la lectura. En caso de que la segunda letra sea mayúscula esto
  • 25. significará que la sección es pública en la especificación o el registro de secciones para propósitos especiales, en caso contrario será privada (no estandarizada). Este uso de mayúsculas y minúsculas asegura que nunca haya conflictos entre secciones públicas y privadas. La tercera letra debe estar en mayúsculas para cumplir las especificaciones de PNG y está reservada para futuras expansiones. La cuarta letra indica si es seguro copiar la sección en caso de que no sea reconocida, en caso de estar en minúsculas es seguro copiar la sección sin importar la cantidad de modificación que haya sufrido el fichero, si es mayúscula solo se deberán copiar si no hay secciones críticas que hayan sufrido modificaciones. Secciones esenciales[editar] Un decodificador debe ser capaz de entender estas secciones para leer y renderizar un PNG: IHDR, debe ser la primera sección, contiene la cabecera. PLTE, contiene la paleta (lista de colores). IDAT, contiene la imagen que debe ser dividida en múltiples secciones IDAT, haciendo esto se incrementa el tamaño de la imagen ligeramente pero hace posible generar imágenes PNG en streaming. IEND, marca el final de la imagen. Secciones de metadatos[editar] Otros atributos que pueden ser guardados en una imagen PNG son: valores de gamma, color del fondo e información textual. PNG también soporta corrección de
  • 26. color con el uso de sistemas de manejo del color como sRGB. bKGD: contiene el color de fondo por defecto, se usa cuando no hay un mejor color disponible para mostrar, como en un visor de imágenes pero no en un navegador web. cHRM: balance de blanco. gAMA: específica la gamma. hIST: guarda el histograma o cantidad total de cada color en la imagen. iCCP: perfil ICC de color. iTXt: contiene texto (UTF-8) comprimido o no. pHYs: contiene el tamaño previsto del píxel y/o el ratio de la imagen. sBIT: (bits significativos) indican la exactitud de los colores en la imagen. sPLT: sugiere una paleta para usar en caso de que el rango completo de colores no esté disponible. sRGB: indica que se usa el estándar sRBG color space. tEXt: almacena texto que puede ser representado en ISO 8859-1 con un nombre=valor para cada sección. tIME: almacena la fecha de la última modificación. tRNS: contiene información sobre la transparencia. Para imágenes indexadas almacena el canal alpha para una o más paletas, para imágenes en color real y escala de grises almacena la información de un solo píxel que debe ser considerado completamente transparente. zTXt: contiene texto comprimido con los mismos límites que tEXt.
  • 27. La primera letra en minúsculas de estas secciones indica que no son necesarias en la especificación de PNG, la última letra en minúsculas indica que es seguro copiarlas incluso si la aplicación en cuestión no las entiende. Otros atributos que pueden ser almacenados en un PNG incluyen valores de corrección gamma, color de fondo y metadatos. PNG además también utiliza la corrección de color que utilizan los sistemas de administración de color como el sRGB. Algunos programas como Adobe Photoshop disponen de este sistema. Profundidad de color[editar] Las imágenes en formato PNG pueden ser imágenes de paleta indexada o estar formadas por uno o varios canales. Si existe más de un canal, todos los canales tienen el mismo número de bits por píxel (también llamado profundidad de bits por canal). Aunque en la especificación oficial del PNG se nombra la profundidad de bits por canal, normalmente los programas de edición nombran solo la cantidad total de bits por píxel, es decir, la profundidad de color. El número de canales depende de si la imagen es en escala de grises o en color y si dispone de canal alfa (también llamado canal de transparencia). La combinaciones permitidas por PNG son: Escala de grises (1 canal). Escala de grises y canal alfa (2 canales). Canales rojo, verde y azul (RGB, 3 canales, también llamado color verdadero o Truecolor). Canales rojo, verde, azul y alfa (RGB + alfa, 4
  • 28. canales). Por otra parte, las imágenes indexadas disponen de un tope de 256 colores como máximo. Esta paleta de colores está almacenada con una profundidad de canal de 8 bits. La paleta no puede tener más colores que los marcados por la profundidad de bits, es decir 28=256 colores, aunque sí puede tener menos (por ejemplo, una imagen de 50 colores solo almacenará 50 entradas, evitando almacenar datos que no son utilizados). [[PASTING TABLES IS NOT SUPPORTED]] La tabla expuesta a la derecha indican la profundidad de color para cada formato de imagen que soporta PNG. Esta se extrae de la profundidad de bits por canal y se multiplica por el número de canales. Las casillas en rojo representan combinaciones no soportadas. El estándar requiere que los decodificadores puedan leer todos los formatos disponibles, pero muchos editores de imagen solo pueden generar un pequeño subconjunto de ellos. Transparencia en la imagen[editar] PNG ofrece una gran variedad de opciones de transparencia: con color verdadero o escala de grises, incluso un solo píxel puede ser declarado transparente o puede añadirse un canal alfa. Para imágenes que usan paletas se puede añadir un canal alfa en las entradas de la paleta. El número de dichos valores almacenados puede ser menor que el total de entradas en la paleta, de modo que el resto de las entradas se considerarán completamente opacas. La búsqueda de píxeles con transparencia binaria debe hacerse antes de cualquier reducción de color para evitar que algunos píxeles se conviertan en transparentes accidentalmente.
  • 29. A diferencia de la transparencia ofrecida por GIF que solo puede tomar 2 valores (completamente transparente o completamente opaco), el canal alfa de PNG permite utilizar mayor profundidad de bits para lograr efectos de semi-transparencia, propios de objetos translúcidos. Por ejemplo, con una profundidad de 8 bits para transparencias se pueden conseguir 28 = 256 grados diferentes de transparencia, como si se tratara de un color.2 Compresión[editar] El método de compresión utilizado por el PNG es conocido como deflación (en inglés "Deflate algorithm"). También existen métodos de filtrado. En la especificación 1.2 se define un único tipo de filtro, que incluye 5 modos de predicción del valor del píxel, que resulta muy útil para mejorar la compresión, donde se elige para cada línea de la imagen (scanline) un método de filtrado que predice el color de cada píxel basándose en los colores de los píxeles previos y resta al color del píxel actual, el color pronosticado. Los cinco métodos son: None, Sub, Up, Average y Paeth. Estos filtros pueden reducir notablemente el tamaño final del archivo, aunque depende en gran medida de la imagen de entrada. El algoritmo de compresión puede encargarse de la adecuada elección del método que mayor reducción ofrezca. El tipo de media MIME para PNG es "image/png" (aprobado el 14 de octubre de 1996). Animación[editar] APNG es una extensión de PNG que soporta animación.
  • 30. Este formato soporta el visionado de una sola imagen en caso de que el decodificador no entienda el archivo. Es aceptado por múltiples navegadores3 y tiene extensión .png. Por otro lado, MNG es un formato de imagen que soporta animación y está basado en las ideas y en algunas secciones de PNG, pero es un sistema complejo y no permite el visionado de una sola imagen en caso de no existir soporte completo en el visualizador de imágenes pertinente. Comparación técnica con otros formatos[editar]Comparación con GIF[editar] En la mayoría de los casos, PNG comprime mejor que el formato GIF, aunque algunas implementaciones (véase Photoshop) realizan una mala selección de los métodos de filtrado y se generan ficheros de mayor tamaño. El PNG admite, al igual que el GIF, imágenes indexadas con transparencia de 1 bit o "binaria". Este tipo de transparencia no requiere de un canal adicional y únicamente admite que un color de la paleta aparezca transparente al 100%. El PNG admite formatos con una profundidad de color de millones de colores (color verdadero) y canal alfa, lo que proporciona unos rangos de color mucho más ricos y precisos que el GIF y disponer de valores de transparencia intermedios. Lamentablemente, esto permite que se compare de forma errónea los PNG de color verdadero con los
  • 31. GIF de color indexado (256 colores). GIF soporta animación y PNG no. (ver sección de animación). Comparación con JPEG[editar] Imagen compuesta comparando JPEG y PNG: nótese los artificios en la imagen JPEG versus el fondo en color sólido para la misma imagen en PNG. PNG y JPEG son formatos que están diseñados para funciones diferentes, por lo que únicamente se puede realizar una comparación generalista: JPEG tiene una relación de compresión enorme en perjuicio de la calidad de la imagen, ideal para imágenes de gran tamaño y fotografías. No admite transparencia. PNG es un formato sin pérdida de calidad con una excelente compresión, ideal para imágenes formadas por grandes áreas de color plano o con pocas variaciones de color. Admite canal alfa y algunos atributos extra como la corrección gamma. Sin embargo, no admite modo CMYK, por lo que no es del todo útil para diseños de impresión. PNG en la web[editar] Pese a que las características técnicas y de compresión hacen de PNG un formato ideal para sustituir a GIF, su adopción ha sido muy lenta, debido en parte a comparaciones erróneas y algunas desventajas técnicas:
  • 32. No está soportado por algunos navegadores muy viejos (tales navegadores, sin embargo, entraron en desuso en la primera década del siglo XXI). la administración de color fallaba en algunos navegadores (fácilmente evitable por la razón anterior). Problemas de color[editar] Algunas versiones de algunos navegadores web presentan los valores de corrección gamma incluso cuando no están especificados en el PNG. Navegadores conocidos con problemas de visualización de PNG: Internet Explorer 5.5 y 6. Netscape 7.0 a 7.2. Opera (versiones anteriores a la 7.50). El efecto final es que el color mostrado en el PNG no coincide con el esquema de color del resto de la página web. Una forma sencilla de evitar esto es volviendo a codificar el PNG truncando ciertos atributos. Algunas utilidades para tal fin: PNGOUT es una utilidad gratuita de DOS que utiliza un algoritmo exclusivo para recomprimir un PNG y reducir el tamaño del fichero al mínimo, sin pérdidas. Superpng, es un plugin gratuito para Photoshop que permite la optimización de ficheros PNG. OptiPNG es una utilidad gratuita que recomprime un PNG, reduciendo su tamaño sin pérdidas. Que es Graphics interchange format conocido como un GIF
  • 33. Graphics Interchange Format (GIF) (Compuserve GIF) (traducido al español como Formato de Intercambio de Gráficos), es un formato gráfico utilizado ampliamente en la World Wide Web, tanto para imágenes como para animaciones. El formato fue creado por CompuServe en 1987 para dotar de un formato de imagen en color para sus áreas de descarga de archivos, sustituyendo su temprano formato RLE en blanco y negro. GIF llegó a ser muy popular porque podía usar el algoritmo de compresión LZW (Lempel Ziv Welch) para realizar la compresión de la imagen, que era más eficiente que el algoritmo Run- length encoding (RLE) usado por los formatos PCX y MacPaint. Por lo tanto, imágenes de gran tamaño podían ser descargadas en un razonable periodo de tiempo, incluso con módems muy lentos. GIF es un formato sin pérdida de calidad para imágenes con hasta 256 colores, limitados por una paleta restringida a este número de colores. Por ese motivo, con imágenes con más de 256 colores (profundidad de color superior a 8), la imagen debe adaptarse reduciendo sus colores, produciendo la consecuente pérdida de calidad. Historia[editar] La imagen en movimiento, surge con los experimentos del fisiólogo francés Étienne-Jules Marey y del fotógrafo británico radicado en los Estados Unidos Eadweard Muybridge (que, por una llamativa coincidencia, nacen y mueren en los mismos años: 1830-1904), constituyen el primer cuestionamiento de los datos que entregan los sentidos, justamente a través de los sentidos.
  • 34. En 1872, surge una incógnita alrededor de los experimentos de Muybridge: ¿existía algún punto, durante el galope de un caballo, en el cual sus cuatro cascos se hallaban levantados del suelo al mismo tiempo? Con esta cuestión, Muybrigde quiso mostrar al ojo lo que jamás había visto. Esto lo logró colocando doce cámaras Scoville con lentes rápidas de Dallmayer, separadas por intervalos regulares a lo largo de una pista; cada cámara se disparaba a través de un dispositivo electromagnético accionado por el caballo a medida que su paso cortaba los filamentos tendidos transversalmente sobre la pista. como si fueran fotogramas de una película, esas imágenes sucesivas permitían ver con una nitidez irrefutable la evolución del movimiento. Por otro lado, Marey, dentro de su aspecto científico, perfecciona la escopeta fotográfica, la cual era capaz de tomar 12 exposiciones en 1 segundo. Él consideraba que, lejos de ser permanentes, las imágenes retinianas son fugitivas: persisten allí algunos instantes, prolongando la duración aparente del fenómeno que las ha hecho nacer. Afirmaba que esta propiedad de la retina permitía estudiar cómo una imagen fotográfica podía representar un movimiento. A partir de estos acontecimientos, y de la necesidad de representar el movimiento de una manera mucho más realista, surgen distintas técnicas de variados artistas; como por ejemplo Passion (1981, Jean-Luc Godard), The Bow (Motion Study, Anton Giulio Bragaglia), Heliografía (1993, Claudio Caldini). GIF
  • 35. Los GIFs se extendieron gracias al navegador Netscape que permitía que se vieran. Si Netscape no hubiera integrado los GIF, probablemente, hubieran muerto en 1998. Fue en ese año cuando CompuServe fue comprada por AOL y dejó expirar la patente sobre ellos, por lo que el formato quedó liberado para el público general. En los años 2000, cuando apareció Flash, un software que permitía crear animaciones más atractivas, potentes, que incluían audio y podían ser interactivas los GIF quedaron en desuso. Paradójicamente, el software Flash está obsoleto ya que las tabletas y smartphone como los iPhone no lo reproducen. Si haces banners publicitarios en Flash y quieres que estén desde otros móviles y no se pueden ver, se deja de usar. Las razones técnicas no son las únicas que justifican el repunte actual del uso del GIF, la funcionalidad, la gran aceptación social y potencia viral que tienen sumado a que son fáciles de ver, de reproducir, de compartir y de crear los hacen una herramienta gráfica comunicativa muy completa. En 2012, GIF se convirtió en la palabra del año al ser reconocida por el diccionario de Oxford. Según Katherine Martin, responsable del diccionario, “el GIF ya no es solamente un medio de expresión de la cultura pop: se ha convertido en una herramienta para la investigación y el periodismo, y su identidad léxica se transforma y se mantiene”. Un año después, en 2013, el creador del formato, Steve Wilhite, recogió el Webby Award a toda una vida y aprovechó el momento para hacer una importante
  • 36. revelación: en estos premios, el discurso no puede tener más de cinco palabras y Wilhite optó por proyectar las suyas en la pared: "Se pronuncia JIF, no GIF”. Además ese mismo año, Alex Chung y Hace Cooke fundaron la base de datos online Giphy, que permite a los usuarios compartir y buscar archivos de GIFs animados. Su idea surgió con la intención de transmitir información de forma rápida y más visual. En 2015, Facebook añadió soporte para GIFs en su página y sus chats, aunque originalmente no dieran apoyo a este formato de comunicación.1 Actualmente Whatsapp ha incluido los GIFs en su plataforma. Características[editar] Una imagen GIF puede soportar transparencias y puede contener entre 2 y 256 colores (2, 4, 8, 16, 32, 64, 128 ó 256) entre 16,8 millones de su paleta. Por lo tanto, dado que la paleta tiene un número de colores limitado (no limitado en cuanto a colores diferentes), las imágenes que se obtenían con este formato por lo general eran muy pequeñas. Sin embargo, dado que el algoritmo de compresión LZW estaba patentado, todos los editores de software que usaban imágenes GIF debían pagarle regalías a Unisys, la compañía propietaria de los derechos. Esta es una de las razones por las que el formato PNG se está volviendo cada vez más popular, en perjuicio del formato GIF. El GIF soporta 8 bits por píxel en cada imagen y una característica esencial es el loop infinito.
  • 37. Usos[editar] El uso de los GIF es generalmente para la publicidad en tipo banners. Su principal utilidad hoy en día sigue siendo el despliegue de imágenes animadas para páginas web, al ser el único formato soportado por multitud de navegadores que permita dicho efecto. Cabe destacar que la animación de este tipo de imágenes solo se puede visualizar en cierto tipo de aplicaciones y programas como presentaciones power point o páginas web, pero en hojas de cálculo o documentos de texto las imágenes gif pierden su animación.2 Actualmente, los medios de comunicación, así como el cine, las televisoras y las campañas publicitarias, han optado por usar el formato GIF como medio de transmisión de datos, información y productos, aprovechando la rapidez de propagación y el auge que desde el 2012 ha tenido. Estamos viviendo tiempos característicos por la sobrecarga de estímulos e información, es por eso que los GIFs suponen un momento de sosiego entre el video y la imagen fija. La manera de observar la realidad está cambiando, ahora nos fijamos en lo infinitesimal. La Oxford University Press afirma que el formato se ha convertido en una herramienta con aplicaciones serias y aplicada en campos de investigación y periodismo. Patentes[editar] Unisys, propietario de la patente del algoritmo LZW que se utiliza en el formato GIF reclamó durante años el pago de regalías por su uso. Compuserve, al desarrollar el formato, no sabía que el algoritmo LZW estaba
  • 38. cubierto por una patente. Debido a esto, cualquier programa capaz de abrir o guardar archivos GIF comprimidos con LZW debía cumplir con sus exigencias. Es necesario recalcar que el formato GIF puede utilizar otros métodos de compresión no cubiertos por patentes, como el método Run-length encoding. El 20 de junio de 2003 expiró en Estados Unidos la patente por el algoritmo LZW. [editar] Las redes sociales como Google Plus que permiten las animaciones han hecho que el gif animado vuelva a ser un formato muy utilizado por su sencillez de edición y poco peso frente a los vídeos.3 Recientemente, redes sociales como Telegram,4 Twitter y Facebook se han sumado y han incluido la posibilidad de usar imágenes GIF en sus servicios. Su popularidad también llega hasta webs dedicadas a este tipo de imágenes como GIPHY, que cosecha puestos privilegiados (322) en el ranking Alexa. Plataformas como Tumblr y Giphy son famosas por permitir acceso a gifs de infinidad de temas, permitiendo a los usuarios cargar, descargar y hasta crear sus propios gifs. GIF en WhatsApp[editar] Actualmente los GIF se han extendido de tal manera que incluso se utilizan para responder mensajes, y este es el caso de la aplicación de mensajería instantánea, WhatsApp. La aplicación habilitó el envío de estos en la
  • 39. versión beta v2.17.6 5de una manera rápida y fácil: se trata de abrir la pestaña del emoticono en la parte izquierda de la pantalla. Una vez se abre la selección de emoticonos, en la parte inferior se encuentra el símbolo GIF. Al seleccionarlo, se puede elegir de entre una gran lista de emoticonos e incluso hay una barra de búsqueda para encontrar el GIF más adecuado. 6 GIF en Instagram[editar] En febrero de 2018 se incorporó una nueva función en Instagram, concretamente en los "Instagram stories". Se añadió una nueva opción donde había las opciones de ubicación, hashtag, hora, temperatura, encuestas...7 Lo hicieron a través de Giphy una web que reúne estas animaciones desde hace tiempo. Se encarga de controlar los GIF's, censurar aquellos que son impropios y permitir los que no tienen contenido molesto para los usuarios. Recientemente, un GIF se saltó el filtro de Giphy y salió a la luz un GIF de carácter racista. Como consecuencia se censuró el uso de GIF's en esta red social. Una vez aseguraron que se había añadido otro nivel de moderación en el filtro y tomaron las medidas necesarias para que no volviera a pasar, se volvió a permitir el uso de GIF's en Instagram. 8 GIF en Telegram[editar] La función de GIF en Telegram se incorporó en 2016.9 Inicialmente fue con el bot @gif y más adelante dentro las opciones de adjuntos.10 El servicio para compartir contenido es Giphy y usa codificación MP4.9 GIFs en la comunicación[editar] Aunque tengamos la opción de transmitir la misma idea
  • 40. con un pequeño vídeo, o con una frase, un GIF presenta unas ventajas técnicas y a tener en cuenta: dinamiza la comunicación, tiene una reproducción inmediata, facilita la retención visual, y produce un impacto emocional. GIF en los medios de comunicación[editar] La primera revista en atreverse a publicar una portada que incluía un gif animado, fue la norteamericana TIME , que tras la presentación por parte de Apple de sus nuevos modelos de iPhone y Apple Watch el 9 de septiembre de 2014, construyó una portada alrededor de un artículo que nos hablaba sobre como Apple está invadiendo nuestros cuerpos. La imagen que se escogió para ilustrar dicho artículo en sus versiones digitales fue la de una muñeca humana en la que parpadeaban gráficos y números: un GIF. Su versión en papel era igual pero sin movimiento. Unos días después de esta publicación, el 29 de septiembre de 2014, la revista New Yorker presentó una portada animada en su página web y su aplicación móvil. La imagen constaba simplemente de un taxi neoyorquino con el Empire State de fondo y unas gotas de lluvia que se deslizaban por la pantalla. Hoy en día por ejemplo, lectores de todas las ediciones internacionales del Huffington Post están acostumbrados a las noticias que incluyen GIFS y a su aparición en la portada. Incluso medios de comunicación más tradicionales como podría ser The New York Times ha trabajado con ellos.11 YouTube (pronunciación AFI [ˈjuːtjuːb]) es un sitio web dedicado a compartir videos. Presenta una variedad de clips de películas, programas de televisión y vídeos musicales, así como contenidos amateur como
  • 41. videoblogs y YouTube Gaming. A pesar de las reglas de YouTube contra subir vídeos con todos los derechos reservados, este material existe en abundancia. Las personas que crean contenido para esta plataforma generalmente son conocidas como youtubers. Fue creado por tres antiguos empleados de PayPal en febrero de 20053 y, en octubre de 2006 fue adquirido por Google Inc. a cambio de 1 650 millones de dólares y ahora opera como una de sus filiales. Es el sitio web de su tipo más utilizado en internet. YouTube usa un reproductor en línea basado en HTML5, que incorporó poco después de que la W3C lo presentara y que es soportado por los navegadores web más difundidos. Antiguamente su reproductor funcionaba con Adobe Flash, pero esta herramienta fue desechada en 2016. Los enlaces a vídeos de YouTube pueden ser también insertados en blogs y sitios electrónicos personales usando API o incrustando cierto código HTML. El 29 de agosto de 2017, YouTube dio a conocer algunos cambios en el diseño de su versión web y presentó un nuevo logotipo, que por primera vez separa el nombre del ícono.45 Historia YouTube fue fundado por Chad Hurley, Steve Chen y Jawed Karim en febrero de 2005 en San Bruno, California. Todos ellos se conocieron cuando trabajaban en PayPal, Hurley y Karim como ingenieros y Chen como diseñador.6 Antigua sede de Youtube hasta 2017
  • 42. De acuerdo con Hurley y Chen, la idea de Youtube surgió ante las dificultades que experimentaron al tratar de compartir vídeos tomados durante una fiesta en San Francisco. Esta historia ha sido considerada una versión muy simplificada, y Chen ha reconocido que esta idea se puede haber promovido por la necesidad de presentar una historia sencilla al mercado.6 Karim ha declarado que la fiesta nunca ocurrió, y que la idea de compartir vídeos en Internet fue suya.6 Sus compañeros han declarado que la fiesta sí ocurrió, y que la idea original de Karim era crear una página de citas, donde las personas pudiesen calificarse sobre la base de sus vídeos. Karim reconoce haber sido influenciado por un sitio de citas llamado HotorNot.com , donde los usuarios podían cargar fotos suyas, que luego eran calificadas por otros usuarios.6 El dominio fue activado el 15 de febrero de 2005,7 y el 23 de abril fue cargado el primer vídeo, Me at the Zoo (‘Yo en el zoológico’).8 En la primavera YouTube entró en línea. Sin embargo, los creadores se percataron rápidamente de que los usuarios cargaban toda clase de vídeos, dejando atrás la idea original. El tráfico se disparó cuando la gente empezó a colocar enlaces de YouTube en sus páginas de MySpace.6 El rápido crecimiento del sitio atrajo a Time Warner y Sequoia Capital, que invirtieron en el mismo. Luego de que, en octubre de 2005, la empresa Nike colocara un spot protagonizado por Ronaldinho, grandes compañías empezaron a sentirse atraídas por YouTube.6 Solo en 2005, Sequoia tuvo que invertir 8,5 millones de dólares estadounidenses en el sitio. Para diciembre de 2005, las páginas de YouTube eran
  • 43. visitadas unas 50 millones de veces al día. Sin embargo, luego de que el vídeo musical Lazy Sunday, transmitido originalmente en el show Saturday Night Live, fuera cargado a YouTube, las visitas se dispararon de nuevo hasta alcanzar las 250 millones de visualizaciones diarias.8 Para mayo de 2006, según Alexa.com, YouTube alcanzó los 2000 millones de visualizaciones por día, y para mediados de agosto había alcanzado la marca de 7000 millones en diversas oportunidades;8 además, se había convertido en el décimo sitio más visitado en Estados Unidos. En aquel momento, el New York Post estimó que YouTube debía valer entre 600 y 1000 millones de dólares estadounidenses.8 MySpace.com y Google publicaron sus propias versiones de YouTube, sin éxito. Para octubre de 2006, las oficinas de YouTube permanecían en el condado de San Mateo, ubicadas en el segundo piso de un edificio, y contaba con unos 60 empleados. Un ejecutivo de Universal Music Group había anunciado hace poco que «YouTube les debía decenas de millones de dólares», por violación de derechos de autor.9 Mark Cuban, cofundador de Broadcast.com, un servicio de radio por Internetcomprado por Yahoo en 1999, había declarado un mes antes que «solo un tonto compraría YouTube por los potenciales problemas legales que enfrentaría».9 No obstante, los propietarios del sitio ya se habían comprometido con Warner Music para mejorar el servicio, de manera tal que pudiesen detectar más rápidamente cuándo un vídeo de su propiedad era cargado al sitio. No obstante, a inicios de ese mes se publicó un reporte en el Wall Street Journal que indicaba que Google iba a comprar YouTube por 1600 millones de dólares. Dicha información
  • 44. inicialmente fue negada por YouTube y Google, que la calificaron como rumores. Ese mismo mes Google compró YouTube por 1650 millones de dólares en acciones.10 En el momento de la compra 100 millones de vídeos en YouTube eran visualizados y 65 mil nuevos vídeos era añadidos diariamente. Además, unos 72 millones de personas la visitaban por mes. Hurley y Chen mantuvieron sus cargos, al igual que los 67 empleados que en ese momento trabajaban en la empresa.11 En los días anteriores, YouTube había firmado dos acuerdos con Universal Music Group y la CBS; y Google había firmado acuerdos con Sony BMG y Warner Music para la distribución de vídeos musicales. Para junio de 2008, el 38 % de los vídeos visualizados en Internet provenían de YouTube; el competidor más cercano solo llegaba a representar el 4 %. Aunque Google no reveló las cifras, se estimó que el sitio generó 200 millones de dólares estadounidenses ese año.12 En ese mes, un anuncio en la página de inicio de YouTube costaba 175 000 dólares diariamente, y el cliente debía comprometerse a gastar 50 000 dólares adicionales en anuncios en Google u otras páginas de YouTube. Sin embargo, debido a que el contenido de la vasta mayoría de los vídeos en YouTube no atraían a los anunciantes, los precios de los anuncios se colapsaron. YouTube procedió a presionar a los estudios de cine y televisión para que produjeran contenido audiovisual de calidad, y les ofreció canales destacados, donde podían presentar anuncios de estrenos de películas y cortos de televisión. También llegó a colocar anuncios antes del inicio de un vídeo, pero luego descubrieron que el 70 % de los usuarios abandonaba el sitio antes de que éste
  • 45. terminase.12 La relación de YouTube con las empresas productoras de televisión y cine ha sido variada. Viacom continúa la demanda contra YouTube por 1000 millones de dólares, iniciada en marzo de 2007, por supuesta violación masiva de derechos de autor.13 Por otro lado, Disney firmó a finales de marzo de 2009 un acuerdo con YouTube, autorizando la transmisión de vídeos cortos de la ABC y ESPN. Disney podrá presentar anuncios en YouTube gracias a este trato. En abril de 2009 Google anunció que YouTube firmó alianzas con algunos estudios de Hollywoodpara que el sitio pudiese mostrar programas de televisión y películas completas.14 En enero de 2010, se lanza YouTube Rentals, un servicio de videoclub por Internet con películas completas que se pueden ver al instante previo pago.15 En los últimos años, Google todavía no ha logrado convertir efectivamente el alto tráfico de YouTube en ganancias; la empresa ha reconocido esto, pero se ha negado a proporcionar las cifras.16 De acuerdo con un artículo de la revista Forbes, se estimaba que YouTube generaría 240 millones de dólares en el año 2009, quedando muy por debajo de los 710 millones en costos operativos del sitio.17 Según un analista de la Credit Suisse, YouTube estaría presentando pérdidas por 470 millones de dólares estadounidenses en 2009;17 sin embargo, otras empresas estiman las pérdidas en 174,2 millones.16 En el año 2015, se consideraba que Youtube no era rentable, siendo que en el año 2014 reportó ingresos por $4.000 millones de dólares, frente a los $3.000 millones del año anterior, pero luego de pagar por el contenido y
  • 46. los equipos que reproducen de forma rápida los videos, el balance quedó en un punto de equilibrio, o sea que no ganó ni perdió dinero. Estos resultados reflejan las dificultades que tiene para expandir su audiencia que está conformada principalmente por adolescentes y preadolescentes. La mayoría de los usuarios utiliza al sitio como un depósito de videos a los cuales se accede desde enlaces o código insertado que son publicados en otras páginas, en lugar de visitar youtube.com.18 En febrero de 2015, YouTube lanzó una aplicación móvil conocida como YouTube Kids. La aplicación está diseñada para los niños, y cuenta con una interfaz simplificada, con selecciones de canales cuyo contenido sea apropiado para niños y funciones de control parental.19Más tarde, el 26 de agosto de 2015, YouTube lanzó YouTube Gaming, un sub-sitio orientado a juegos de video y una aplicación que pretende competir con la Twitch.tv de Amazon.com.20 En el año 2015 también se anunció un servicio premium de YouTube titulado YouTube Red, que ofrece a los usuarios contenido libre de anuncios y también la posibilidad de descargar videos entre otras cosas.21 El 10 de agosto de 2015, Google anunció que estaba creando una nueva compañía, Alphabet, para actuar como holding de Google, con el cambio en la información financiera a partir del cuarto trimestre de 2015. YouTube sigue siendo una subsidiaria de Google.22 En enero de 2016, YouTube amplió su sede en San Bruno al comprar oficinas por 215 millones de dólares. El complejo puede albergar hasta 2.800 empleados.23 YouTube también renovó su apariencia de aplicación móvil en agosto de 2017. La plataforma de videos YouTube dio a conocer las nuevas características de su
  • 47. aplicación móvil, tal como el nuevo diseño, velocidades en reproducción, visualización automática y opciones con pantalla completa. En su blog oficial, la plataforma destacó que está en evolución, por lo que han comenzado una serie de actualizaciones durante lo que resta del año, con un nuevo nivel de funcionalidad y una mirada constante a través de las experiencias móviles y de escritorio. Apuntó que el nuevo diseño consiste en un encabezado en blanco, para que el contenido resalte, y se movimiento de las pestañas de navegación hasta la parte inferior de la aplicación, para que estén más cerca de los pulgares. También, expuso que se agregaron nuevas pestañas en la biblioteca y en la cuenta que le dan acceso fácil a lo que está buscando. Asimismo, explicó que a principios de este año, se introdujo un gestor que permite doblar el toque en el lado izquierdo o derecho de un video para avanzar o retroceder rápidamente 10 segundos. La empresa con sede en San Bruno, California, comentó que en los próximos meses “experimentaremos una función que permite saltar entre vídeos con un movimiento: simplemente desliza hacia la izquierda para ver un vídeo anterior o desliza el dedo hacia la derecha para ver el siguiente”. En el caso de la velocidad, manifestó que a los usuarios les encanta acelerar y ralentizar la reproducción de un video en el escritorio, por lo que dicha función se trasladó a la aplicación móvil, para que los usuarios le den la velocidad que deseen. También añadirá una función que permita ver filas de videos sugeridos mientras se observa un video con pantalla completa, en tanto que en poco se cambiará la forma en que se ven los videos en vertical, cuadro u horizontal, sin barras negras en los lados.2425
  • 48. El YouTube cambió de logo por primera vez en su historia, dado a conocer el 29 de agosto de 2017. Ahora, el logo tiene la palabra YouTube con todas sus letras negras, mientras que el símbolo de “play” de color rojo aparece al costado izquierdo.26 En 2019, la canción Kill this love, del grupo Blackpink, se convirtió en el videoclip más visto en YouTube en sus primeras 24 horas con 56,7 millones de visualizaciones. [1] Características y críticasSobre la búsqueda de vídeos Comparación de las distintas calidades de vídeo que ofrece YouTube. YouTube mantiene una logística que permite localizar cualquier vídeo por medio de las etiquetas de metadato, títulos y descripciones que los usuarios asignan a sus vídeos, pero cuyo uso está restringido únicamente a los vídeos alojados en YouTube. Sin embargo, a raíz de la compra de YouTube por parte de Google, Google Video empezó a agregar a sus búsquedas los contenidos de YouTube. En junio de 2007 se dio un importante paso hacia la internacionalización del sitio, al traducir su interfaz a diversos idiomas, entre ellos el español. Reproductor El diseño del reproductor es minimalista y ligero, basado en un color predeterminado: el gris claro, debido a que la empresa busca la comodidad en lo que respecta al tipo de banda de Internet. El primer reproductor de YouTube tenía un diseño curveado, simple, con las opciones
  • 49. resaltando como botones. A mediados de 2007, el segundo cambió a uno más limpio y moderno, con una estructura más recta y con las opciones separadas por espacios compartidos. Se agregó opciones como agregar anotaciones, pausar haciendo clic sobre la pantalla del reproductor, banners publicitarios similares a los que aparecen en la televisión, subtítulos originales y traducidos. A veces, se incluyen spots cortos antes del vídeo. En 21 de enero de 2010 en las opciones del reproductor se agrega un menú desplegable para seleccionar la calidad de vídeo que se quiere visualizar y dos nuevos iconos para cambiar el tamaño del reproductor y para visualizar el vídeo a pantalla completa, respectivamente. Cuando hay subtítulos, aparece un icono que permite mostrarlos. Últimamente, también Youtube ha agregado la capacidad de ver algunos videos en 3D y resoluciones hasta Ultra alta definición. Por otro lado, existe la posibilidad de ver subtítulos, que están en formato SubViewer (*.SUB) y SubRip (*.SRT).27 Cada vídeo cuenta con su propio contador de visitas que permite dar a conocer la popularidad del mismo abiertamente. En 2012 el código de Youtube fue reprogramado para diferenciar dos tipos de material según la cantidad de sus visitas. Los vídeos cuyo contador no llega a las trescientas visitas son considerados «inocuos». Por otro lado, aquellos que hayan sido visitados más de trescientas veces pasan a ser verificados manualmente para garantizar le legitimidad de la cifra de visitas. Debido a esto, el contador se congela y, momentáneamente, no refleja en
  • 50. tiempo real el número de personas que ya vio el vídeo. Una vez que pasó por la verificación, el contador se actualiza y se suman las visitas que habían quedado en espera. Sin embargo, un error en la programación del código determinó que la cifra sea de trescientos uno, y no trescientos, lo que produjo diferentes reacciones por parte de los usuarios ante la aparente arbitrariedad del número. A raíz de esto, el fenómeno fue conocido como el misterio de las 301 visitas.28 Calidad de vídeo En Google Vídeo y otros sitios de vídeos hay quejas acerca de la calidad, siendo que los vídeos se pixelan (aparecen cuadros de color uniforme de mayor tamaño, en forma de mosaico), en gran medida debido al equilibrio entre calidad de imagen y velocidad de transmisión de datos en la red. Otro problema es que en bastantes clips, el audio y el vídeo no están sincronizados; aunque esto depende del formato del archivo original. En general, todos los vídeos deben ocupar un espacio en disco no mayor a 2 GB y deben tener una duración menor o igual a 15 minutos, con una tolerancia extra de 59 segundos de grabación, es decir, una duración total de 15:59 segundos. La totalidad de los vídeos son convertidos a resoluciones de 320×240 y 480×360 píxeles, y a 30 fotogramas por segundo, aunque los vídeos alojados antes de marzo de 2008 sólo están disponibles en la resolución más baja. A pesar de que todos los vídeos se muestran predeterminadamente en la resolución menor, los usuarios pueden reproducirlos en alta calidad ajustando sus preferencias.
  • 51. No todos los vídeos de YouTube han sido optimizados o convertidos a un formato de alta resolución; sin embargo, hay un pequeño porcentaje que sí lo está, y para visualizarlos se debe agregar el parámetro «&fmt=6» (sin comillas) al final de la dirección URL[cita requerida]. El vídeo seguiría siendo un vídeo en formato FLV pero con calidad superior, siempre y cuando exista dicha versión; de lo contrario, solamente se visualizará la versión normal. Como método alternativo, puede agregarse «&fmt=18», parámetro que está disponible para casi todos los vídeos (en formato MP4).[cita requerida] Desde finales de 2008 se pueden ver videos HD con calidad 720p y desde 2009 con calidad 1080p, a las cuales se puede acceder eligiendo la calidad deseada en uno de los botones que aparece en la esquina derecha inferior del video. Al igual que el formato de HQ (alta calidad), el formato HD (alta definición) solamente se visualizará si existe la versión. El 25 de noviembre de 2008, YouTube cambió la relación de aspecto de su reproductor de vídeo, de 4:3 a 16:9, siguiendo el estándar de los televisores LCD y de plasma, y también en concordancia con las intenciones de la empresa de transmitir películas completas en el futuro.29 Este cambio de aspecto es para todos los vídeos, por lo que los que están en formato 4:3 se ven con franjas negras a los lados. [[PASTING TABLES IS NOT SUPPORTED]] Posteriormente se añadieron las resoluciones QHD (1440p) y 4K o Ultra alta definición. En julio de 2015 se añadió la resolución 8K (hasta 7.680 × 4.320 píxeles) la
  • 52. cual es 16 veces superior a la alta definición y 75 veces superior al sistema PAL. En noviembre de 2016 se añadió soporte para subir y reproducir videos en HDR.31 En junio de 2014, YouTube introdujo videos que se reproducen a 60 fotogramas por segundo, con el fin de reproducir videojuegos con una velocidad de fotogramas comparable a las tarjetas gráficas de gama alta.3233 Los videos se reproducen con una resolución de 720p o superior.34 Los videos de YouTube están disponibles en una variedad de niveles de calidad. Los antiguos nombres de calidad estándar (SQ), alta calidad (HQ) y alta definición (HD) han sido reemplazados por valores numéricos que representan la resolución vertical del vídeo. La secuencia de vídeo predeterminada se codifica en el formato VP9 con audio Opus estéreo; Si no se admite VP9 / WebM en el navegador/dispositivo o si se está usando Windows XP, entonces se utilizará vídeo H.264/MPEG-4 AVC con audio AAC estéreo.35 En enero de 2015, Google anunció que YouTube permitirá la subida de videos en 360°. Desde el 13 de marzo de 2015, los videos en 360° se pueden ver en Google Cardboard, una plataforma de realidad virtual. YouTube 360° también se puede ver desde todas las demás plataformas de realidad virtual.36 Formatos de archivo admitidos .MOV .MPEG4 .MP4 .AVI .WMV .MPEGPS .FLV .3GPP .WebM37 Restricción de copias Para evitar copias de los archivos de vídeo, en un principio estos fueron distribuidos en formato flash
  • 53. (FLV), propiedad de la empresa Adobe Flash, que impide a los usuarios hacer copias digitales fácilmente. Aun así, diversos programadores han elaborado herramientas que permiten, sin permiso de YouTube, la descarga de los vídeos alojados en el sitio. Hoy en día existe una infinidad de aplicaciones para acceder a la descarga de los vídeos de YouTube; además, ya existe una herramienta para bajar videos en alta definición. El navegador Google Chrome ha aplicado una restricción por la cual las extensiones de la Chrome Web Store para bajar videos, no permiten hacerlo con los de YouTube.38 Copyright YouTube ha cambiado profundamente la definición de derechos de autor en vídeos, ya que antes de 2005 sólo se aplicaban a música compartida por P2P. Gran parte de los vídeos que los usuarios publican en YouTube tienen música o imágenes con copyright, pero la compañía sólo los retira si es requerido por el propietario de los derechos de autor. Al retirarse los vídeos la cuenta del usuario que los publicó es suspendida después de recibir, cuando menos, tres advertencias. Adicionalmente, las productoras de música pueden solicitar la anulación de las pistas de audio de los vídeos que incluyen bandas sonoras o música que no fue licenciada para su inclusión, quedando totalmente sin sonido.39 En el año 2017, las penalidades son las siguientes: En caso que una transmisión en vivo actual o archivada se quite por incumplir los derechos de autor, se restringirá el acceso a la función para
  • 54. transmitir en vivo por noventa días. En caso que el usuario reciba tres advertencias por incumplimiento, se rescindirá la cuenta, se quitarán todos los videos que de la misma, y no podrá crear cuentas nuevas. Las advertencias por incumplimiento se hacen cuando el propietario de los derechos de autor envía una solicitud legal completa y válida.40 Disputa con Viacom Uno de los casos más conocidos ocurrió en febrero de 2007 ante la exigencia por parte de Viacom, casa matriz de la cadena MTV, y los canales infantiles Nickelodeon, Nick Jr., Nick Jr. 2 y Noggin, de retirar de su sitio más de 100 000 vídeos, al no poder llegar a un acuerdo económico con la compañía para que los usuarios pudieran utilizar el contenido de Viacom.41 La disputa entre las dos compañías se agravó el 13 de marzo, cuando Viacom anunció públicamente que había demandado a YouTube y a su propietaria Google Inc. por presunta violación de los derechos de autor por un monto que supera los 1000 millones de dólares en daños.42 Como respuesta, algunos usuarios de YouTube subieron vídeos al sitio exhortando a otros usuarios a boicotear a Viacom.43 Google respondió argumentando que sí respetan los derechos de autor y que no permitirá que la demanda legal se transforme en una distracción del continuo y sólido crecimiento de YouTube.44 YouTube como plataforma publicitaria Desde mayo de 2007, en YouTube empezaron a aparecer
  • 55. vídeos publicitarios de 15 a 30 segundos y otro en estilo pop-up para toda empresa que lo solicite. El tipo de anuncio mostrado al usuario es completamente aleatorio y sin relación con el contenido del que vídeo que buscaba ver o las palabras clave usadas en la búsqueda. Para el uploader estándar de Youtube, puede desactivar que sus propios vídeos tengan anuncios de terceros, de cualquier forma ningún uploader de YouTube recibe remuneraciónpor mantener anuncios en sus vídeos.45 Sin embargo, en los últimos años (2010-actualidad), los uploaders pueden elegir si quieren insertar anuncios o no en su vídeo publicado, y de que tipo (en varias partes del video, uno sólo al iniciar la reproducción, un banner...), y en función de factores como el número de visualizaciones, tipo de contenido, etc... Reciben cierta remuneración por parte de Google.46 Como complemento de la televisión Algunos canales estadounidenses han creado webisodes, breves capítulos de cinco minutos de duración cuya trama está relacionada con la serie original de la cual se derivan, que son distribuidos exclusivamente en Internet. Estos episodios surgieron como un método alternativo, tras la huelga de guionistas en Hollywood de 2007-2008, para llegar a una audiencia verdaderamente global. Un ejemplo de estos cortos es Qué vida más triste, que fue transmitido después por el canal de España La Sexta.47 Además, se ha comprobado que YouTube no roba audiencia a la televisión, de hecho la estimula,[cita requerida] ya que, aunque un programa no tenga éxito en su país de origen,
  • 56. es posible que en YouTube sí lo tenga, al atraer más público del esperado. Esto ha sucedido con el programa español Muchachada Nui, que ya es ampliamente conocido en Latinoamérica.48 Youtube Red YouTube Red es el servicio de suscripción premium de YouTube. Ofrece streaming sin publicidad, acceso a contenidos exclusivos, reproducción de vídeo en segundo plano y acceso fuera de línea en dispositivos móviles.49 YouTube Red se anunció originalmente el 12 de noviembre de 2014 como "Music Key", un servicio de streaming de música por suscripción, y tenía la intención de integrarse y reemplazar el servicio "All Access" existente de Google Play Music.5051 El 28 de octubre de 2015, el servicio se volvió a lanzar como YouTube Red, ofreciendo streaming sin publicidad en todos los videos, así como acceso a contenido original y exclusivo.52 Pagos por derechos de autor Según la página de estadísticas de YouTube en el mes de julio de 2016 la empresa había pagado la suma de 2000 millones de dólares a los titulares de los derechos de autor que habían decidido monetizar reclamos desde que fue lanzado Content ID en el año 2007.2 Impacto en la cultura popular y sociedad YouTube ha tenido un gran impacto en la cultura popular; prueba de ello es haber obtenido el premio al «Invento del año», otorgado por la revista Time en noviembre de 2006.53 El sitio se convirtió en un medio de difusión tan popular para la difusión de fenómenos de Internet de todo tipo que incluso ha sido utilizado por
  • 57. importantes personalidades como Tony Blair, quien publicó allí su mensaje de felicitación al presidente de Francia, Nicolas Sarkozy, cuando éste resultó elegido.54 El sitio es también un medio de promoción para artistas y políticos en campaña electoral que cuentan con un espacio o canal (channel) propio; tal es el caso de Citizen Tube, un espacio donde los políticos en campaña para las elecciones de Estados Unidos exponen en blogs de vídeo sus propuestas y comentarios. De igual manera, la Comisión Europea puso en marcha un espacio dentro de YouTube para comunicarse con los ciudadanos.55 YouTube promocionando un debate político. Si bien las temáticas son muy variadas y diversas, varias tendencias positivas se han mostrado en los vídeos y listas de comentarios donde los usuarios vierten las impresiones del vídeo visto. Por ejemplo, se encuentran los vídeos con imágenes de ciudades y provincias, que en su mayor parte muestran fraternidad entre personas y pueblos; cursos diversos con fines educativos, técnicos y científicos, como la muestra de vídeos médicos de operaciones y autopsias, muestras gastronómicas, archivos históricos, comedia o entretenimiento en general. Sin embargo, la pornografía no es tolerada, aunque a raíz de ésta prohibición un grupo de personas ajenas a YouTube creó YouPorn. El sitio ha sido criticado por haber alojado vídeos sobre peleas entre miembros de distintas razas en Estados Unidos[cita requerida] o entre escolares, donde incluso aparecen niñas golpeándose.56 Algunos de estos vídeos han sido realizados exclusivamente para su difusión por YouTube.[cita requerida] Además, han
  • 58. aparecido vídeos relacionados con el terrorismo y vídeos de webcam donde se exponen poses eróticas sin llegar a la desnudez. Algunas de estas últimas imágenes han sido expuestas sin la autorización de las personas filmadas. Dentro de esta categoría se encuentran los vídeos voyeur, usualmente captados por teléfonos móviles con vídeo integrado, que muestran imágenes de grabaciones de partes íntimas de mujeres u hombres en el transporte público o en la vía pública. Estos vídeos son filmados sin autorización de las personas filmadas.[cita requerida] Por otro lado, las temáticas negativas en cuanto a xenofobia, ideologías políticas y religiosas extremistas, discriminación, maltrato animal entre otros son muy comunes en YouTube.[cita requerida] Por ejemplo, en el mundo han surgido vídeos racistas denigrando e insultando las características y costumbres de las personas de otras razas u otros países.[cita requerida] Un estudio reciente demostró que las situaciones de vulnerabilidad que acaecen tanto en la creación como en el consumo de material audiovisual por parte de los adolescentes en la plataforma se centran en cuatro grandes ejes temáticos: sexo, drogas, acoso y embarazo.57. En respuesta, YouTube facilitó un sistema para denunciar videos inapropiados y usuarios abusivos. Si el caso es relativamente leve, el video es bloqueado para que la gente deba comprobar que es mayor de edad antes de verlo. Si el caso es más grave o reincidente, se procede a borrar el video y tomar medidas más drásticas contra el infractor.58 ControversiasVídeos virales
  • 59. Otra característica del portal es que se ha ostentado como plataforma principal para la difusión de vídeos virales. Estos se refieren a un sinfín de vídeos, ya sean extraídos de diversos medios como la TV, vídeos de promoción musical o videoaficionados, a los cuales particularmente el público expectante encuentra alguna característica generalmente cómica, por lo cual comienzan a difundirlos a través de blogs u otras redes sociales para que sean vistos por más gente. Muchos de estos vídeos son totalmente espontáneos y no fueron hechos con el objetivo original de ser vídeos virales, ni tampoco para fines de lucro posterior,59 los propios espectadores son los que hacen que estos tengan ese comportamiento de difusión en la Red. Un ejemplo es la fama obtenida por una maquillista de la televisión peruana llamada Judith Bustos, conocida como La Tigresa del Oriente, quien con la exposición de un videoclip Nuevo amanecer fue un vídeo viral que respondió a un sinfín de reacciones diversas, entre ellas considerar su presentación como un camp o también un kitsch,60 esto es debido a que la pequeña empresa que lo produjo, Éxitos del mundo, que surgió de la bancarrota de toda la industria fonográfica del Perú a mediados de los años 90,61 contaba con recursos limitados para su producción, no utilizando los que generalmente tiene una compañía de televisión. Un ejemplo similar y que generalmente caracteriza a un video viral es el que representa al actor indio Chiranjeevi, que durante 1985 filma una escena en que utiliza elementos parecidos al videoclip de Michael JacksonThriller, que en sí no fue una parodia, sino una expresión de la popularidad del cantante estadounidense en la comunidad india plasmada en un video. Lo que lo hizo vídeo viral fue la extracción de dicha escena de la película para la que fue
  • 60. hecha y su posterior exhibición en YouTube, lo que espectadores de todo el mundo percibieron como una parodia, que no lo era. El impacto de un vídeo viral es totalmente incierto y con diversos destinos, pero llega a ser tal que da pie a crear todo tipo de parodias incluso hechas por los canales de televisión nacional del mundo,62 llegando también al lucro, esto también incluso es reflejado en la publicidad de algunos países.63 Hay algunas excepciones donde algunos vídeos son editados con el propósito de ser vídeos virales. Usos colaterales no esperados El servicio del sitio también ha sido utilizado por el crimen organizado, como los cárteles del narcotráfico, como herramienta de propaganda.[cita requerida] Siendo el caso más común los videos musicales. Además, estas organizaciones criminales han publicado imágenes de sus crímenes para aumentar el impacto mediático y atemorizar a sus rivales aunque los videos son retirados de inmediato por los administradores.64 Un caso inédito se dio durante el secuestro del ganadero mexicano Luis Fierro, del estado mexicano de Guerrero. Un vídeo grabado por sus captores fue alojado al sitio; sin embargo, su acceso fue restringido con una clave. En el video se amenazaba para el pago del rescate.65 Otro problema relacionado es el atractivo que YouTube representa para los grupos terroristas que igualmente lo usan para propósitos de propaganda y manipulación. En respuesta Google afirma que continuamente está mejorando sus mecanismos de monitoreo y filtrado y exhorta a sus usuarios a reportar cualquier problema en el sistema.66
  • 61. YouTube también sirvió para alojar un video filmado por el surcoreano Cho Seung-Hui, que contenía un discurso suyo. Este video fue alojado poco antes de que Cho ejecutara la masacre de Virginia Tech en Estados Unidos.[cita requerida] El servicio de YouTube tiene una herramienta de denuncia por infracciones que incumplan las condiciones de uso. Entre estas destaca la prohibición de alojar material que promueva el odio racial y el discurso de incitación al odio. De esta manera, los usuarios pueden enviar una solicitud de revisión al vídeo en cuestión, así como críticas y comentarios del mismo, para que sean evaluados, y de proceder, sean retirados. En otros ámbitos, el sitio ha servido como plataforma inusual para dar a conocer talentos desconocidos. un ejemplo, el más famoso a nivel mundial lo representa Susan Boyle. Gracias a que un video extraído del programa británico Britain's Got Talent le permitió hacerse conocida a nivel mundial, su talento como intérprete le fue valorado y es así que una completa desconocida tanto en su país como en el resto del mundo tomara gran notoriedad al descubrirse un talento reconocido por el público.67 Actualizaciones A lo largo de su historia, YouTube ha publicado actualizaciones a varias de sus funciones con el objetivo de ofrecer una mejor experiencia a sus usuarios. Las últimas se impusieron en enero de 2010, introduciendo variadas opciones adicionales, aunque lo más notable fue su cambio de diseño: la opción impuesta más significativa fue el compartimiento de vídeos mediante
  • 62. nuevas redes sociales que antes no existían, como Tuenti, Vkontakte, Tumblr u otros servicios, como Blogger. También, la bandeja de entrada ahora permite ver todos los mensajes en una vista, y la carga de estos es mucho más rápida que antaño. Así, ahora se pueden ver los comentarios a los vídeos, las respuestas a los mensajes privados y las invitaciones en una misma página. También se pueden enviar mensajes a numerosos destinatarios. La gestión de vídeo ha recibido una importante mejora y entre los cambios más notables salta a simple vista una interfaz más ligera, con menús expandibles, información más concisa y más opciones de edición en pantalla. El manejo de contactos y suscripciones también ha sido actualizado, y ahora se pueden organizar de manera más sencilla y rápida. Se pueden, por ejemplo, visualizar los datos de más de un contacto con sólo marcarlos, o aplicarles etiquetas y organizarlos en grupos, todo de manera muy sencilla. La descarga de canciones no solo se podrán hacer a partir de iTunes, sino también de distintos servicios impuestos por el propio autor del vídeo. Esta opción es una mejora, ya que estaba disponible desde 2008. En septiembre de 2011 se eliminó la restricción de límite de video a 15 minutos,68 aunque solo para algunas cuentas.69 Esta característica se pierde automáticamente si el usuario infringe en las políticas a la comunidad y/o haya hecho violaciones de derechos de autor y/o haya tenido reclamaciones de ID de contenido.
  • 63. Localización El 19 de junio de 2007 el consejero delegado de Google, Eric E. Schmidt realiza en París la publicación del nuevo sistema de localización.70 La interfaz del sitio está desde entonces disponible en Estados Unidos y en versiones para 104 países: [[PASTING TABLES IS NOT SUPPORTED]] La interfaz de YouTube sugiere qué versión debería elegirse basándose en la dirección IP del usuario. Hay algunos videos que no están disponibles en ciertos países debido a restricciones de derechos de autor o por incluir contenido inapropiado.81 YouTube políglota El sitio YouTube tiene como idioma predeterminado el inglés, pero está disponible en un total de 76 idiomas:2 Bloqueos, censura y vigilancia En total, por lo menos 24 países han bloqueado YouTube en el pasado, entre los que se encuentran Arabia Saudita, Bangladés, la República Popular China, Pakistán, Tailandia y Turquía.82 En el Reino Unido y Alemania, YouTube ha decidido bloquear los videos musicales en el pasado para evitar problemas con las sociedades de derechos de autor.8384 En el marco de las filtraciones sobre vigilancia mundial de 2013, un documento de la agencia de inteligencia británica GCHQ fechado en agosto de 2012 proporcionó detalles sobre un programa de vigilancia llamado Squeaky Dolphin, que permite al GCHQ un amplio seguimiento y en tiempo real de las distintas características de páginas y redes
  • 64. sociales, como visitas a vídeos de YouTube, todo sin consentimiento o conocimiento de las empresas que prestan estos servicios. Squeaky Dolphin permite reunir, analizar y utilizar datos en tiempo real obtenidos de YouTube con fines analíticos. El programa es capaz de recoger direcciones de más de 1000 millones de vídeos vistos a diario, así como datos de usuarios85 (véase revelaciones de Edward Snowden). En Corea del Norte no existe el acceso a YouTube porque la censura a Internet es total, y en Eritrea es casi imposible.86 República Popular China Los usuarios de Internet en la República Popular China han presentado problemas para acceder a YouTube en un par de ocasiones. Durante los disturbios en el Tíbet de 2008YouTube fue bloqueada por el Gobierno.82 Además, el 3 de marzo de 2009 se reportó que YouTube fue bloqueado de nuevo.87 Ese mismo mes, entre el 23 y el 24, Google comunicó que el tráfico de Internet desde China había bajado considerablemente. Aunque el Gobierno chino no aclaró si había bloqueado o no el sitio,82 los problemas de acceso experimentados por los usuarios chinos coincidieron con la aparición de un video donde aparecía un soldado golpeando mortalmente a un protestante tibetano. De acuerdo a la agencia de noticias gubernamental Xinhua, el video fue fabricado por miembros del gobierno en el exilio tibetano.88 Según el diario brasileño O Globo, para el 30 de marzo los usuarios chinos ya podían acceder sin problemas a YouTube89 Posteriormente, YouTube sería reemplazado en China por equivalentes locales como iQiyi, que están más acordes a la cultura y los lineamientos oficiales de este país.
  • 65. Turquía Para inicios de marzo de 2009 YouTube había sido bloqueado en once ocasiones en Turquía.90 La mayoría de las veces esta acción respondía a la aparición de videos donde se mofaban del político Mustafa Kemal Atatürk, considerado el padre de la nación turca.90 Los conflictos entre la nación euroasiática y YouTube comenzaron en marzo de 2007, cuando Turquía bloqueó el popular sitio de videos por uno en concreto, de origen griego, que violaba la ley turca, ya que calumniaba a Atatürk.91 Aunque YouTube eliminó el video, el Gobierno turco luego solicitó la retirada de otros videos que violaban su ley, entre los que destacaban videos creados por las milicias kurdas. Desde entonces, de acuerdo con los diarios turcos, se inició una guerra virtual en YouTube entre griegos y turcos, donde cada bando cargaba videos en el sitio cuyo único objetivo era insultar la historia o cultura del bando opuesto.92 YouTube eliminó los videos que violaban las normas del sitio y bloqueó los videos que violaban leyes turcas para evitar que las direcciones IP de origen turco pudiesen accederlos.91 Sin embargo, en junio de 2008 un fiscal turco solicitó a YouTube bloquear esos videos a nivel mundial, alegando prevenir que turcos en el extranjero los visualizasen. Ante la negativa de YouTube a esta nueva petición, se inició un nuevo bloqueo que se extendió por lo menos hasta noviembre del mismo año.91 Alemania A inicios de abril de 2009 YouTube dejó de transmitir videos en Alemania, al ser incapaz de alcanzar un acuerdo con GEMA, la mayor sociedad de derechos de
  • 66. autor alemana.84 YouTube y GEMA tenían un acuerdo que expiró en marzo de 2009, pero no lo renovaron ya que, según portavoces de YouTube, GEMA estaba solicitando tarifas más elevadas, incluso mayores que las que reclaman su equivalente británica.84 Este autobloqueo representa la pérdida de 13 millones de visitantes germanos al mes, que representan un 4,33 % de los visitantes mundiales de YouTube. Actualmente, la productora de la película alemana Der Untergang pidió a YouTube retirar las miles de parodias de su película.93 Tailandia A finales de 2006 el Gobierno tailandés bloqueó el acceso al sitio como respuesta a la aparición de videos donde se insultaba al Rey de Tailandia, Bhumibol Adulyadej, considerado un crimen en ese país. El Gobierno tailandés entregó a Google una lista de veinte videos que consideraban ofensivos, exigiendo su retirada para levantar el bloqueo.82 Los ejecutivos de Google bloquearon los videos que violaban la ley tailandesa, que contaba con amplio apoyo popular, para evitar que direcciones IP tailandesas accediesen a ellos.82 Una serie de videos que no violaban la ley pero que eran considerados ofensivos por el Gobierno no fueron bloqueados, solución que el Gobierno de Tailandia aceptó.[cita requerida] Transmisión en directo El 25 de octubre de 2009 se transmitió en directo un concierto del U2 360° Tour, gira de la banda irlandesa U2, desde el Estadio Rose Bowl, en California, Estados Unidos. Fue el primer concierto completo transmitido en directo por YouTube.94 El 1 de diciembre de 2009 se
  • 67. transmitió en directo el concierto de la artista Alicia Keys desde Nueva York, en Estados Unidos. Es el segundo concierto completo transmitido en directo por YouTube.95 El 22 de enero de 2010 se transmitió en directo un concierto para la esperanza de Haitítambién desde Nueva York. Estaban invitados varios artistas, como Justin Timberlake, Jay-Z, Rihanna, Shakira, U2, Coldplay, Taylor Swift y otros. El 27 de enero de 2011 YouTube transmitió el estreno de la película Life in a Day del director Kevin McDonald, película generada por la contribución en video de miles de usuarios en YouTube. Desde el 1 de julio de 2011 comenzó transmisiones de los partidos en vivo de la Copa América 2011. Para el 5 de julio, el canal CopaAmerica tenía 61 761 subscriptores, sin embargo, esta transmisión por razones desconocidas fue bloqueada en muchos países.96 El 7 de abril de 2013 Youtube emitió en Directo el Pre- show de la SuperBowl de la WWE WrestleMania 29. Youtube Partners A partir del año 2011 se comenzó el proyecto "Youtube Partner", el cual consiste en otorgar ingresos reales por medio de Google Adsense o "networks" que son empresas que pagan los usuarios con mayor audiencia de Youtube, referidos como youtubers o youtubero97 (en minúsculas ambas, la primera en cursiva al ser un anglicismo). Sólo empresas de medios con domicilio en Estados Unidos con representación en YouTube son candidatos para ser networks. Esta característica ha permitido que las empresas de medios y usuarios
  • 68. independientes que reciben grandes cantidades de reproducciones sean capaces de recibir un ingreso económico, con el fin de mejorar la calidad del trabajo. A los que forman parte de este contrato se les da la opción de poner anuncios ya sea dentro del vídeo o a un costado del mismo, con la finalidad de obtener ingresos por parte de los anunciantes que invierten por publicidad dentro de los vídeos almacenados en esta página web. YouTube Premium El 12 de noviembre de 2014, se anunció de manera oficial YouTube Music Key, el servicio de streaming por suscripción del portal de videos. Music Key ofrece la posibilidad de obtener streaming de música directamente desde YouTube sin publicidad haciendo uso de su propia aplicación, además permite realizar la reproducción en segundo plano, ver contenido de manera offline, realizar listas personalizadas y recibir recomendaciones.98 Se lanzó inicialmente como Youtube Red, y posteriormente se cambió el nombre por YouTube Premium. Ofrece 3 meses de servicio gratuito y el pago mensual de 9,99 $ en USA y 9,99 € en Europa. La suscripción también incluye el servicio de Google Play Music. SlideShare es un sitio web 2.0 de espacio web de dispositivos que ofrece a los usuarios la posibilidad de subir y compartir en público o en privado ; documentos en Adobe PDF (.pdf), Microsoft Word (.doc,.docx y.rtf) y OpenOffice (.odt) y la mayoría de documentos de texto sin formato (.txt),1 e incluso algunos formatos de audio y vídeo.2
  • 69. Originalmente el sitio web estaba destinado para los empleados del ámbito empresarial con la intención de que compartieran con más facilidad diapositivas entre ellos, pero luego el público objetivo se amplió para convertirse también en un entretenimiento. Historia[editar] SlideShare fue lanzado el 4 de octubre de 2006.3 Este sitio web se considera similar a YouTube, pero de uso orientado a las presentaciones de series de diapositivas.4 El 4 de mayo de 2012 fue adquirida por LinkedIn. En agosto de 2015 como muestra del compromiso de LinkedIn de apostar por una mayor integración con SlideShare se produjo un rebranding pasándose a llamar LinkedInSlideShare, con la intención de tratar de profesionalizar y evolucionar la web. Como muestra de esta nueva estrategia de profesionalización e integración de LinkedIn con SlideShare van a ir presentando una seria de aplicaciones y mejoras de su sitio web, que comprenderán desde la nueva herramienta Clipping hasta opciones para una mejor organización, formas de posicionamiento personal de los usuarios o búsqueda de expertos en categorías que interesen al propio usuario, así como otras herramientas personalizadas. Según la compañía tiene 70 millones de usuarios mensuales activos y un total de aproximado de 400 mil presentaciones añadidas cada mes. El contenido en el sitio web casi se ha doblado desde la unión con LinkedIn, pasando de los 10 millones en 2013 a 18 millones actualmente. 5 los siguientes servicios son basados con la siguiente
  • 70. información: Servicios de SlideShare[editar] SlideShare ha desarrollado servicios adicionales que complementan su funcionalidad: Zipcasts hd6[editar] En febrero de 2011 SlideShare añadió una función llamada Zipcasts. Zipcasts es un sistema de conferencia a través de web social que permite a los presentadores transmitir una señal de audio / vídeo mientras se conduce la presentación a través de Internet. Zipcasts también permite a los usuarios comunicarse durante la presentación a través de una función de chat integrada. Zipcasts no soporta compartir la pantalla con el presentador, una característica disponible en los servicios competidores de pago como WebEx y GoToMeeting. Además, los presentadores que usan Zipcasts no son capaces de controlar el flujo de la presentación, permitiendo a los espectadores navegar hacia atrás y adelante a través de las propias láminas. Clipping7[editar] En agosto de 2015, LinkedIn SlideShare lanza Clipping, que permite guardar diapositivas individuales de presentaciones en tu propia colección (Clipboard). Se puede utilizar como marcador, para coleccionar y organizar las diapositivas a las que quieras volver a acceder en cualquier otro momento. Slidecast8[editar]
  • 71. Permite añadir voz o música a una presentación slideshare, logrando una sincronización del archivo sonoro con las dispositivas. Recientemente ha incorporado la posibilidad de integrar en una presentación ya subida a SlideShare, clips de vídeo previamente publicados en YouTube. Wikipedia es una enciclopedia libre,nota 2 políglota y editada de manera colaborativa. Es administrada por la Fundación Wikimedia, una organización sin ánimo de lucro cuya financiación está basada en donaciones. Sus más de 50 millones de artículos en 300 idiomas han sido redactados en conjunto por voluntarios de todo el mundo,5 lo que suma más de 2000 millones de ediciones, y permite que cualquier persona pueda sumarse al proyecto6 para editarlos, a menos que la página se encuentre protegida contra vandalismos para evitar problemas y/o trifulcas. Fue creada el 15 de enero de 2001 por Jimmy Wales y Larry Sanger7 y es la mayor y más popular obra de consulta en Internet.8910 Desde su fundación, Wikipedia no solo ha ganado en popularidad —se encuentra entre los 10 sitios web más populares del mundo—,1112 sino que su éxito ha propiciado la aparición de proyectos hermanos: Wikcionario, Wikilibros, Wikiversidad, Wikiquote, Wikinoticias, Wikisource, Wikiespecies y Wikiviajes. No obstante, tiene numerosos detractores. Entre ellos, algunos la han acusado de parcialidad sistémica y de inconsistencias,13 con críticas centradas sobre lo que algunos, como Larry Sanger, han convenido en llamar «antielitismo»,14 y que no es otra cosa que la política
  • 72. del proyecto enciclopédico de favorecer el consenso sobre las credenciales en su proceso editorial.15 Otras críticas han estado centradas en su susceptibilidad de ser vandalizada y en la aparición de información espuria o falta de verificación,16 aunque estudios eruditos sugieren que el vandalismo en general es deshecho con prontitud.1718 Hay controversia sobre su fiabilidad y precisión.19 La revista científica Nature declaró en diciembre de 2005 que la Wikipedia en inglés era casi tan exacta en artículos científicos como la Encyclopaedia Britannica.20 El estudio se realizó comparando 42 artículos de ambas obras por un comité de expertos sin que estos supieran de cuál de las dos enciclopedias provenían. El resultado fue que Wikipedia tenía casi el mismo nivel de precisión que la Enciclopedia Británica, pero tenía un promedio de un error más por artículo.21 Por otro lado, y según consta en un reportaje publicado en junio de 2009 por el periódico español El País, un estudio de 2007, dirigido por el periodista francés Pierre Assouline y realizado por un grupo de alumnos del máster de Periodismo del Instituto de Estudios Políticos de París para analizar la fiabilidad del proyecto, se materializó en el libro La revolución Wikipedia (Alianza Editorial) cuyas conclusiones eran bastante críticas. Entre otras cosas, afirmaba que el estudio de Nature fue poco estricto y sesgado, así como que, según su propio estudio, la Britannica continuaba siendo un 24 % más fiable que la Wikipedia.22 De las 300 ediciones, quince superan el 1 000 000 de artículos: inglés, cebuano, sueco, alemán, francés, neerlandés, ruso, italiano, español, polaco, samareño,
  • 73. vietnamita, japonés, chino y portugués. La versión en alemán ha sido distribuida en DVD-ROM, y se tiene la intención de hacer una versión inglesa en DVD con más de 2000 artículos.23 Muchas de sus ediciones han sido replicadas a través de Internet —mediante «espejos»— y han dado origen a enciclopedias derivadas —bifurcaciones— en otros sitios web.24 Etimología La palabra Wikipedia, nombre propio acuñado por Larry Sanger a principios de 2001, es la contracción de wiki, una tecnología para crear sitios web colaborativos, procedente a su vez de wikiwiki, 'rápido' en hawaiano,25 y encyclopedia, 'enciclopedia' en inglés.26 Este nombre se pronuncia en inglés como [ˌwɪkɨˈpiːdi.ə] (?·i) o AFI: [ˌwɪkiˈpiːdi.ə] (AFI). La Wikipedia en español, creada meses después, heredó el nombre. Tras una votación realizada entre septiembre y noviembre de 2003 por parte de los usuarios de esta, se decidió seguir con el mismo término. En la votación se barajaron los siguientes nombres —por orden de popularidad—: Librepedia, Huiquipedia, Uiquipedia, Güiquipedia, Viquipedia, Ñiquipedia, Velozpedia, Limonpedia, Güisquipedia y Velocipedia.27 Otros que también usaron el nombre Wikipedia fueron los idiomas —ordenados según el ISO 639-3—: alemán, bretón, corso, danés, euskera, filipino, finlandés, gallego, neerlandés, indonesio, islandés, italiano, nauruano, noruego, polaco, rumano, siciliano, somalí, suajili y sueco.
  • 74. Otras grafías para el título Esta es una lista de las grafías alternativas usadas para nombrar a Wikipedia en las diferentes ediciones:28 Bichipedia - Sardo. Biquipedia - Aragonés. Güiquipeya - Extremeño. Uichipedia - Arrumano. Uiquipedia - Asturiano. Uikipedias - Lojban. Vichipedia - Romanche. Vichipedie - Friulano. Vicipaedia - Latín. Vicipéid - Irlandés. Vikipedi - Turco. Vikipedia/‫ויקיפידיה‬ - Judeo-español. Vikipedio - Esperanto. Vikipedija - Lituano. Vikipēdija - Letón. Vikipediya *1 *2 *3 - Azerí, tártaro de Crimea, uzbeko. Vikipeedia - Estonio. Vikipeediä - Võro. Vikipetã - Guaraní. Vikipedėjė - Samogitiano. Vikipidiya - Romaní. Viquipèdia - Catalán. Vitipetia - Tahitiano. Vouiquipèdia - Franco-provenzal. Wicipǣdia/Ƿicipǣdia - Anglosajón. Wicipedia - Galés. Wikipaedia - Escocés. Wikipédia *4 *5 *6 *7 - Francés, eslovaco, húngaro,
  • 75. portugués. Википедия - Tártaro. Wikipedie - *8 *9 Checo, novial. Wikipediija - Sami septentrional. Wikipedijô - Casubio. Wikipedio - Ido. Վիքիպեդիա - Armenio. ‫وﻳﻜﻴﺒﻴﺪﻳﺎ‬ - Árabe. วิกิพีเดีย - Tailandés. ウィキペディア - Japonés. Huiquipedia - Náhuatl. Oiquipedià - Occitano. ‘O Wikipikia - Hawaiano. uikiPEdi, as - Lojban. Uicchipèdie - Tarantino. Wikiibíídiiya - Navajo. Wikipedi - Bambara. Wikipedija*10 *11 *12 *13 *14 - Bosnio, croata, esloveno, maltés, serbocroata. Wikipediya - Zazaki. Wikipidiya*15 *16 - Aimara, quechua. Wîkîpediya - Kurdo. Wïkïpêdïyäa - Sango. Wikipedy - Frisón. Wikipedyjo - Silesio. Wikipeediya - Fula. Wikipidya*16 *17 - Bicolano central, cabilio. Wikkipedija - Fráncico ripuario. Wéijībǎikē / 维基百科 - Chino. ᓀᐦᐃᔭᐧᐁᒧᐧᐃᓐ/Uikuepitiu - Cri. Βικιπαίδεια*18 *19 - Griego, póntico. Википеди*20 *21 - Chuvacho, osético.
  • 76. Википедия - Ruso. Википедиесь - Moksha. Википедиja*22 *23 - Macedonio, serbio. Вікіпедія - Ucraniano. Уикипедия - Búlgaro. ‫ויקיפדיה‬ - Hebreo. ‫ויקיפעדיע‬ - Yiddish. ‫وﯾﮑﯽﭘﺪﯾﺎ‬ - Persa. ვიკიპედია - Georgiano. ‫وﯾـﮑـ‬5*26 - Hindi, maratí, sánscrito. ����� - Telugú. 维基百科 - Cantonés. Nota: Cada asterisco (*) denota una referencia respectiva por la múltiple adopción lingüística. Características Un mundo donde cada persona pueda compartir libremente en la suma de todo conocimiento. Existen tres características esenciales del proyecto Wikipedia que definen en conjunto su función en la web. El lema «La enciclopedia libre que todos pueden editar» explica los tres principios:29 Es una enciclopedia, entendida como soporte que permite la recopilación, el almacenamiento y la transmisión de la información de forma estructurada. Es un wiki, por lo que, con pequeñas excepciones, puede ser editada por cualquiera. Es de contenido abierto. Según su cofundador, Jimmy Wales, el proyecto constituye «un esfuerzo para crear y distribuir una
  • 77. enciclopedia libre, de la más alta calidad posible, a cada persona del planeta, en su idioma», para lograr «un mundo en el que cada persona del planeta tenga acceso libre a la suma de todo el saber de la humanidad».30 Se desarrolla en el sitio Wikipedia.org haciendo uso de un software wiki —término originalmente usado para el WikiWikiWeb—. Edición y contenido Han existido y existen muchas enciclopedias en línea que compitieron con Wikipedia, como Microsoft Encarta y Encyclopædia Britannica; sin embargo, ninguna ha logrado el mismo éxito que Wikipedia.3132 Pese a su competición, la enciclopedia ha atraído la atención de otras tradicionales influidas popularmente.33 Según un estudio realizado por la revista Nature en 2007, «Wikipedia alcanzaba a la Enciclopedia Británica» en calidad,34 aunque existe controversia sobre este asunto.3536 Además, sus contenidos están disponibles en formato impreso.3738 Otro estudio realizado por la Universidad Carnegie Mellon y Palo Alto Research Center sobre las mayores categorías de artículos en la Wikipedia en inglés desde julio de 2006 hasta enero de 2008, arrojó los siguientes resultados:39 Evolución del número de artículos a lo largo del tiempo (2001-2010), para los ocho lenguajes con mayor número de artículos. Destaca la edición en inglés, y se nota un sostenido crecimiento en todas. [[PASTING TABLES IS NOT SUPPORTED]]
  • 78. En 2010, Alison J. Head y Michael B. Eisenberg publicaron una investigación sobre el uso que dan a la Wikipedia los estudiantes universitarios. El estudio tuvo lugar en siete universidades de Estados Unidos, y tenía como objetivo mostrar con qué frecuencia, motivos y en qué momento de un trabajo académico, se utiliza esta enciclopedia. El resultado la posicionó como la sexta fuente de consulta y la segunda no académica; la enciclopedia predilecta para obtener un trasfondo general sobre un tema. Se ubicó por delante de sitios gubernamentales, compañeros de clase, colecciones personales de libros, y la Enciclopedia Británica, que quedó relegada al undécimo puesto (61 %).4041 [[PASTING TABLES IS NOT SUPPORTED]]Interfaz Para la visualización de artículos, la fundación Wikimedia rediseñó la interfaz con un tema o tapiz que se conoce como vector, creado en 2010.4243 Antes de la actualización, años atrás existía una interfaz clásica conocida como Monobook con limitadas características.44 Dentro de la interfaz, existen variedad de mandos usados para navegar o editar páginas. Por ejemplo, para buscar, ir a otros enlaces o ampliar imágenes como otros sitios web. Además, mediante las pestañas, pueden navegar, interaccionar o colaborar con otras páginas. Aunque algunas actividades de mantenimiento, son ocultas para los usuarios no registrados en el proyecto. Para editar un artículo se recurre al código wiki en una caja de texto a través de la pestaña "Editar" que no siempre está disponible en caso de alguna prevención contra el vandalismo. Entre sus mandos, no se asemejan al clásico HTML; por ejemplo para los enlaces
  • 79. se usan corchetes, signos iguales para los títulos, entre otros, lo cual puede dar una mala impresión a aquellas personas que no tengan conocimientos en Informática.45 Diferencia entre revisiones. La interfaz de edición de Wikipedia. Acceso en múltiples idiomas Portada de Wikipedia en japonés. En octubre de 2016, Wikipedia abarcaba 284 ediciones «activas» en distintos idiomas y dialectos. Cada edición trabaja de forma independiente, no está obligada a incluir el contenido de otras ediciones, y solo debe respetar políticas globales tales como la de mantener un «punto de vista neutral». Sin embargo, se comparten algunos artículos e imágenes entre las diversas ediciones de Wikipedia o a través del repositorio de Wikimedia Commons, y se solicitan traducciones organizadas de artículos procedentes de otras ediciones. Los artículos traducidos representan solamente una pequeña parte del total en cualquiera de ellas.46 Las cinco ediciones con más artículos son, en orden descendente, inglés, sueco, neerlandés, alemán y francés. En enero de 2011, Wikipedia contenía 278 ediciones —268 activas— en varios estados de desarrollo, que sumaban más de 17 millones de artículos.5 La lista de idiomas incluye idiomas artificiales como el
  • 80. esperanto, lenguas indígenas o aborígenes como el náhuatl, el maya y las lenguas de las islas Andamán, o lenguas muertas, como el latín, el chino clásico o el anglosajón. El 1 de marzo de 2006, la Wikipedia en inglés se convirtió en la primera en superar el millón de artículos, seguida el 27 de diciembre de 2009 por la Wikipedia en alemán, el 21 de septiembre de 2010 por la Wikipedia en francés, el 17 de diciembre de 2011 por la Wikipedia en neerlandés, el 22 de enero de 2013 por la Wikipedia en italiano, el 11 de mayo del mismo año por la Wikipedia en ruso, el 16 del mismo mes por la Wikipedia en español, el 15 de junio por la Wikipedia en sueco y el 24 de septiembre por la Wikipedia en polaco. Durante la primera mitad de 2014, alcanzaron también el millón de artículos tres ediciones en lenguas asiáticas: la Wikipedia en vietnamita, la Wikipedia en samareño y la Wikipedia en cebuano. La siguiente es una lista de las dieciséis mayores ediciones ordenadas por número de artículos. Las cifras, que son referenciadas respectivamente a cada versión, son actuales. [[PASTING TABLES IS NOT SUPPORTED]] Muchas ediciones de Wikipedia —como la sueca, la neerlandesa y la rusa— utilizan bots para la creación automática de esbozos, razón por la que el número de artículos no es necesariamente una referencia válida con respecto a su estado o calidad.4748 Una categorización diferente sería la media de tamaño por artículo; así, una Wikipedia con numerosos artículos de apenas unos pocos bytes quedaría situada por debajo
  • 81. de otra con menos entradas pero más trabajadas. También hay que tener en cuenta que muchas Wikipedias —como, por ejemplo, la rusa, la japonesa, la china y la hebrea— usan alfabetos no latinos, silabarios o sistemas ideográmicos, y ello aumenta el tamaño de las bases de datos. Comunidad Las contribuciones anónimas son menores en comparación con las contribuciones de los usuarios registrados. Algunos proyectos, como el de la Stanford Encyclopedia of Philosophy, o el de la ahora abandonada Nupedia, se basan en políticas editoriales tradicionales y de autoría de artículos tipo «escritura por expertos». Ocasionalmente aparecen sitios web como h2g2 o everything2 que siguen unas pautas generales preestablecidas, donde los artículos solo pueden ser redactados y controlados por cada persona de forma individual.49 Contrariamente, proyectos como Wikipedia, Susning.nu o la Enciclopedia Libre son wikis en los que los artículos son desarrollados por numerosos autores, y no existe un criterio de revisión formal. Wikipedia es la enciclopedia más grande en cuanto a número de artículos o palabras jamás escrita. Al contrario de lo que sucede con muchas otras, su contenido está liberado bajo licencias de contenido abierto. Wikipedia dispone de un conjunto de políticas y convenciones que sirven para decidir qué información debe o no incluirse.50 Estas políticas se utilizan para resolver disputas relativas a la creación, edición y
  • 82. borrado de artículos, así como a la transferencia de estos a un proyecto hermano por no tratarse de información enciclopédica (véase la sección Fundación Wikimedia y los proyectos hermanos). Cultura La cultura de la sociedad ha variado, según el estado, en cada versión. En el caso principal, la Wikipedia en español cualquier persona tiene la posibilidad de crear un artículo nuevo y casi cualquier visitante puede editar el contenido, a excepción de los artículos que se encuentran protegidos. Sin embargo, en la inglesa los usuarios no registrados no pueden comenzar artículos desde cero. Wikipedia fue creada con la idea de producir textos de calidad a partir de la colaboración entre usuarios, a semejanza de los proyectos de desarrollo de aplicaciones libres. Los artículos evolucionan con el paso del tiempo, y esto es visible en su historial de ediciones. Habitualmente, una parte de las ediciones son vandálicas —de contenido no relacionado con Wikipedia o con información falsa—, y en ocasiones editores con puntos de vista encontrados producen lo que se conoce como guerra de ediciones. Esta se produce cuando dos o más editores entran en un ciclo de reversiones mutuas debido a disputas causadas por diferencias de opinión sobre el contenido del artículo. No hay que confundir vandalismo —que frecuentemente afecta una sola vez a un artículo o artículos— con guerra de ediciones, la cual afecta repetidas veces a un mismo artículo en un breve lapso. Entre los artículos vandalizados frecuentemente en la edición en español destacan: George W. Bush, Benedicto XVI o Testigos de Jehová; mientras que
  • 83. artículos con fuertes guerras de ediciones son Cuba o Comunidad Valenciana, debido a la disparidad entre las opiniones de sus redactores. Cada capítulo de Wikipedia cuenta con un grupo de personal, encargado en la cooperación. Dentro de esta lista se mencionan a administradores, cuyas funciones fundamentales son hacer mantenimiento —tal como borrar artículos, bloquear vándalos y otras funciones— y estar al servicio del cumplimiento de las normas que la rigen. El capítulo con más administradores es la Wikipedia en inglés, con un total de más de 1600.51 Mascota Debido a su considerable popularidad, existieron propuestas de mascotas que representaban a Wikipedia de una manera no oficial. La primera en aparecer fue la de Wikípedo, una hormiga trabajadora dedicada al mantenimiento de sus contribuciones.52 Su popularidad fue poca. En 2004, en una votación para ser remplazada o abandonada, la comunidad eligió a Wikipe-tan, un personaje tipo OS-tan dibujada por un usuario diseñador gráfico para un proyecto de anime y manga.53 No obstante, ha sido criticada por ser sexuada, considerado ofensivo por partes de la comunidad.545556 Marca corporativa Las cinco marcas corporativasoficiales utilizadas anteriormente por Wikipedia, desde su creación hasta mayo de 2010. Elemento gráfico usado desde mayo de 2010.
  • 84. Desde su inicio en 2001, Wikipedia ha utilizado diferentes marcas corporativas. El elemento común en todas ellas es una esfera escrita como elemento central, simbolizando el mundo y el conocimiento. En 2003 se adoptó por concurso internacional el dibujo de una esfera incompleta, conocida como globo- rompecabezas, compuesta por piezas de un rompecabezas de varios colores, con enlaces en azul pertenecientes a distintas escrituras del mundo, simbolizando así la condición de «obra en construcción» que tiene Wikipedia.57 El diseño que ganó el concurso internacional sufrió algunas modificaciones antes de ser aprobado como logo oficial, principalmente la eliminación del color y el reemplazo de los enlaces por grafemas de diversas escrituras del mundo. La denuncia de diversos errores e inconsistencias en los símbolos incluidos en el globo-rompecabezas y la posibilidad de diseñar una imagen animada o fotorrealista impulsó entre diversos editores de Wikipedia un debate sobre la posibilidad de realizar modificaciones en el elemento gráfico. Como consecuencia, y tras la labor realizada a través de una iniciativa de la Fundación Wikimedia junto a miles de voluntarios para modificar la interfaz de la enciclopedia, el dibujo de la globo-rompecabezas fue reemplazado en 2010 por un modelo tridimensional, en el que algunos símbolos de las piezas de rompecabezas fueron reemplazados por otros, principalmente aquellos que constituyen el primer grafema de la palabra "Wikipedia" en distintas wikipedias que existen en el mundo. Por añadidura, se cambió la tipografía del elemento denominativo —«WIKIPEDIA, La enciclopedia libre»— para usar la fuente abierta Linux Libertine, con
  • 85. excepción de la W inicial, que se mantiene con la fuente Hoefler Text y constituye también uno de los símbolos oficiales.585960 Cada Wikipedia según idioma es autónoma y tiene facultades para elegir la marca que la identifique. A partir de 2003 todas han adoptado básicamente la misma, con el elemento denominativo «Wikipedia, The free encyclopedia» —«Wikipedia, La enciclopedia libre»— traducido al idioma en que se escribe cada una. Las marcas han sido realizadas voluntaria y gratuitamente por usuarios de Wikipedia, y sus derechos pertenecen a la Fundación Wikimedia. Historia La marca corporativa de Nupedia. Wales cita el ensayo "El uso del conocimiento en la sociedad", escrito por el economista y filósofo de la escuela austriaca y Premio Nobel de Economía Friedrich Hayek, que leyó cuando era estudiante,61 como «central» para su pensamiento acerca de «cómo gestionar el proyecto Wikipedia»62636465 Hayek argumenta que la información está descentralizada —cada individuo solo conoce una pequeña fracción de lo que se conoce colectivamente— y, como resultado, las decisiones se toman mejor por aquellos con conocimientos locales, en lugar de por una autoridad central.6266 Wales reconsideró el ensayo de Hayek en la década de 1990, mientras estaba leyendo sobre el movimiento de código abierto, que abogaba por la distribución gratuita de software libre. Fue particularmente conmovido por el ensayo "La catedral y el bazar" escrito por uno de los fundadores del
  • 86. movimiento, Eric S. Raymond y adaptado más adelante en un libro. Wales afirmó que ese ensayo «abrió [sus] ojos a las posibilidades de colaboración masiva».61 En marzo de 2000, Jimmy Wales creó Nupedia, un proyecto de enciclopedia libre basado en un ambicioso y exhaustivo proceso de revisión por pares,67 diseñado para hacer sus artículos de una calidad comparable a la de las enciclopedias profesionales gracias a la participación de eruditos –principalmente doctorandos y académicos—, a los que se proponía colaborar de modo no remunerado. El proyecto tuvo el apoyo económico de la empresa Bomis, fundada por Wales y administrada por este junto con un compañero desde 1996,68 y la colaboración de Richard Stallman, quien propuso el cambio a la licencia pública general de GNU, desde la antigua Nupedia Open Content License.69 Larry Sanger, doctor en filosofía, que ya conocía anteriormente a Wales de mantener con él discusiones filosóficas por Internet, fue contratado por este y se convirtió en redactor jefe de Nupedia.68 Debido al lento avance del proyecto, en 2001 se creó un wiki —UseMod— vinculado a Nupedia cuya finalidad inicial era agilizar la creación de artículos de forma paralela, antes de que estos pasaran al sistema de revisión por expertos. Existe cierta polémica entre los fundadores de Nupedia sobre quién propuso originalmente la idea de usar un wiki a Jimbo Wales, si Larry Sanger o bien una tercera persona,70 pero el caso es que el éxito de aquel «pequeño proyecto paralelo» —Wikipedia— acabó eclipsando a Nupedia, que dejó de funcionar en 2003. El artículo "UuU", creado el 16 de enero de 2001, es
  • 87. aceptado como el artículo actualmente existente más antiguo de Wikipedia. Apareció en la Wikipedia en inglés y así es como puede verse aquella primera edición, recurriendo al historial. El proyecto Wikipedia se inició el 15 de enero de 2001. El artículo más antiguo que puede encontrarse en Wikipedia es UuU, creado el 16 de enero de 2001 en la versión inglesa; consistía en tres enlaces hacia sendos artículos sobre el Reino Unido, Estados Unidos y Uruguay.71 Larry Sanger pasó a colaborar con Wikipedia y trabajó activamente en la organización y directrices del proyecto; se marchó en 2002 por desacuerdos con Wales.68 Ese año, Wikipedia abarcaba 26 idiomas, 46 en 2003 y 161 a finales de 2004. Wikipedia y Nupedia coexistieron hasta la extinción de la segunda en 2003.72 Sin embargo, la posibilidad de utilizar publicidad en Wikipedia provocó una reacción de parte de los contribuyentes de la Wikipedia en español, motivo que llevó a la creación de la Enciclopedia Libre Universal en Español en febrero de 2002.73 Este episodio podría haber impulsado a su vez la determinación de no utilizar publicidad, la creación de la Fundación Wikimedia y el cambio al nuevo url.74 Se han iniciado otros varios proyectos de enciclopedia con formato wiki, en gran parte bajo una filosofía diferente de la apertura y el modelo editorial del «punto de vista neutral» desarrollado por Wikipedia. Por ejemplo, Wikinfo, uno de los portales web, no requiere un punto de vista neutral y permite la investigación original.75 También hubo nuevos proyectos inspirados en Wikipedia —como Citizendium, Scholarpedia, Conservapedia, y Knol de Google76— donde algunos de los aspectos que son fundamentales en Wikipedia se
  • 88. abordan de manera diferenciada, como las políticas de revisión por pares, la investigación original, y la publicidad comercial. El 20 de septiembre de 2004, Wikipedia alcanzó 1 millón de artículos en 100 idiomas.77 En 2007 la versión en inglés superó los 2 millones de artículos, convirtiéndose en la enciclopedia con mayor número de artículos de la historia y superando en ese aspecto a la Yongle Dadian de 1407, que sostuvo el récord durante varios siglos.78 Debido a su popularidad y sencillez, el Oxford English Dictionary ha considerado introducir el término wiki.79 En octubre de 2011, Wikimedia anunció el lanzamiento de Wikipedia Zero, una iniciativa para permitir el acceso gratuito móvil (datos) a la Wikipedia en países del tercer mundo a través de colaboraciones con operadores de telecomunicaciones móviles.8081 Política Wikipedia tiene una serie de políticas establecidas por los propios participantes, cuya finalidad conjunta es mantener la identidad del proyecto como enciclopedia y promover la calidad de sus contenidos. Cada capítulo de Wikipedia adopta sus propias políticas, aunque algunas son comunes a todos ellos. Una vez que la comunidad logra el consenso sobre la aplicación de una norma, todos los editores están obligados a respetarla. Algunas de estas políticas son: Debido a la diversidad y número de participantes e ideologías, provenientes de todas las partes del mundo, Wikipedia intenta construir sus artículos de la forma más exhaustiva posible. El objetivo no es
  • 89. escribir artículos desde un único punto de vista, sino presentar abiertamente cada postura sobre un determinado tema. Como es obvio, no caben todas las posturas, pues no se admitirían, por ejemplo, la inclusión de aportaciones de quienes exalten o defiendan ideas que implican odio o violencia —por ejemplo, no se admitirían frases a favor de personajes que hayan promovido el genocidio de razas consideradas como inferiores—.nota 3 Se sigue una serie de convenciones con respecto al nombramiento de artículos, optándose preferentemente por la versión más comúnmente utilizada en su respectiva lengua.nota 4 Las discusiones acerca del contenido y edición de un artículo ocurren en las páginas de discusión y no sobre el artículo mismo.nota 5 Existen varios temas que resultan excluidos de Wikipedia por no constituir artículos enciclopédicos estrictamente hablando. Por ejemplo, Wikipedia no contiene definiciones de diccionario —como verbos, adjetivos, etc.—, que sí pueden encontrarse en el Wikcionario.nota 6 Neutralidad del contenido Wikipedia es un proyecto dirigido a —literalmente— todo el mundo y editable por —literalmente— cualquier persona. Esta característica constituye una de sus mayores ventajas, pero también genera un problema: existen personas que introducen —deliberadamente o no— información parcial, bien creando un planteamiento
  • 90. sesgado, o bien omitiendo puntos de vista que no comparten o que no les interesan.82 La política que se encarga de combatir dicho problema es el punto de vista neutral, que, básicamente, establece la necesidad absoluta e innegociable de reunir en los artículos susceptibles de polémica todos los puntos de vista significativos. Además, las licencias de contenido libre garantizan que dicho contenido pueda ser reeditado cuantas veces sea necesario y por cualquier persona si el propósito de la edición es la mejora. Según Jimmy Wales, uno de los fundadores de Wikipedia, la colaboración produce efectos positivos y ampliamente aceptados.83 Para el ingeniero informático formado en filosofía Joaquín Siabra Fraile, Wikipedia es primero un conjunto de reglas y procedimientos y, solo después, contenidos, las reglas son un mecanismo virtual diseñado para conseguir unos contenidos fruto del consenso racional. Para Siabra se dan en el wikipedista lo que Habermas consideraba como criterios del participante en una situación ideal de comunicación: verdad, rectitud y veracidad.8485 Relevancia del contenido Wikipedia, debido a su condición de enciclopedia electrónica sin ánimo de lucro y en crecimiento permanente tanto en lo referente a su contenido como a su número de editores —cuya inmensa mayoría colabora de forma altruista—, admite información que no tendría cabida en una enciclopedia convencional, limitada esta última por el espacio físico —número de tomos— en el que se confina dicha información, por el número de
  • 91. editores contratados por la editorial y por el tiempo dedicado a confeccionar la obra. Sin embargo, no toda la información tiene cabida, y existen criterios de relevancia establecidos por consenso comunitario, de tal modo que, aunque no se rechaza a priori ningún artículo, se investigan las nuevas creaciones y se descartan las que no cumplen determinados requisitos. Por ejemplo, no se admiten los artículos autopromocionales; esto es, que ninguna persona puede publicar un artículo sobre sí misma, sobre una persona cercana —familiar, por ejemplo— o sobre la empresa en la que trabaja. Cuando el tema goza de una mínima —y necesaria— relevancia, llega a captar la atención de —cuando menos— algún medio de comunicación —libro, revista, periódico— reputado, y es a estos últimos a los que, según las normas de Wikipedia, debe acudirse para crear el artículo. Estos criterios están contemplados en varias políticas, a saber, «Páginas de autopromoción»,86 «Criterios para el borrado rápido»,87 «Wikipedia no es una fuente primaria»,88 «Verificabilidad»89 y «Fuentes fiables».90 Según declaraciones oficiosas de un «bibliotecario» —administrador— colombiano de la Wikipedia en español, los «bibliotecarios» de esta Wikipedia eliminan más artículos que los de otras versiones de Wikipedia.91 Licencia de contenido Icono de CC-BY-SA, que simboliza a Creative Commons Atribution Share-Alike —en español, atribución y compartir la licencia similar de Creative Commons—. El contenido textual está bajo las licencias GNU y
  • 92. Creative Commons; la última versión se actualizó mediante una votación entre el 12 de abril y el 3 de mayo de 2009.92 Mediante el lema La enciclopedia libre se entendía, al modo del software libre, como un producto de distribución gratuita y sin restricciones. Así también, se considera software por la codificación de MediaWiki, bajo GPL. Esta redistribución presenta el requisito de que debe ser acreditada, es decir, debe mencionarse su atribución, ya que la licencia incluye Share-Alike; además, es necesario conservar esta licencia —u otra similar— evitando su protección de distribución.93 Sin embargo, se había estado trabajando en el cambio a licencias Creative Commons, porque la GFDL, inicialmente diseñada para manuales de software, no es adecuada para trabajos de referencia en línea y porque las dos licencias son incompatibles.94 A cada autor, editor o ilustrador que contribuye a la enciclopedia siempre se le atribuyen los derechos de autor según la convención de Berna.95 Un autor también puede copiar contenido de otro con el permiso correspondiente —sobre todo en el caso de contenido con licencia libre—, sin embargo no podrá usarse un contenido que prohíbe su distribución, reproducción o modificación de una manera ilícita, porque ello limitaría su utilización con seguridad y acarrearía problemas con las políticas. Por ello, en la Wikipedia en inglés puede aparecer cualquier imagen ilustrativa siempre que lo haga de manera lícita.96 A excepción del contenido y varias de sus características, el isologo de esta marca corporativa está protegido, por lo que no se permite su distribución sin previa autorización.97
  • 93. Protección de datos Historial de ejemplo que ilustra la ocultación de información con contenido difamatorio. Para la fundación, la privacidad de la información es tan importante como la prevención de vandalismo.98 Muchos artículos son revertidos o incluso ocultados del historial —en la imagen—, este último se consigue con la eliminación de información a través de supresores que disponen de herramientas específicas para ello. De este modo, por ejemplo, se eliminan las ediciones insultantes o intimidatorias y se evitan sobrecargas confusas en el historial del artículo.99 En cuanto a la comunidad, los usuarios no ceden demasiada información y es la propia comunidad quien decide salvar fácilmente de cualquier amenaza.100 Ello permite atribuir de una manera «anónima» y minimiza el trabajo. Para administrar, por ejemplo, se realizan estadísticas, para organizar las visitas, artículos, entre otros; pudiendo ser poco usual para censar comunidades. En cuanto a la atribución, Creative Commons, por su parte, no garantiza el contenido por los derechos de imagen que hayan cedido.101 En la Wikipedia en alemán los artículos no son publicados hasta haber sido revisados por un editor experto. Se está barajando la posibilidad de aplicar la misma medida en la Wikipedia en inglés.102 Usuarios Wikipedia está siendo editada por miles de personas en todo el mundo. Con excepción de ciertas personas remuneradas por la Fundación Wikimedia,103 el resto,
  • 94. conocidos en la jerga de Wikipedia como wikipedistas, actúan siempre de manera gratuita y voluntaria.104 En total, la comunidad está conformada por más de 400 millones de usuarios registrados en todo el mundo,105 incluyendo algo más de 1 700 000 en la versión hispana, donde el 13 % son mujeres.106 En las páginas internas de Wikipedia —dirigidas fundamentalmente a los colaboradores—, se anima a los usuarios a participar activamente en el proyecto. Hay diversas formas de colaborar: desde crear nuevos artículos, ampliar los ya existentes, o corregir textos que no cumplan las convenciones de estilo establecidas o cuya información sea errónea o inexacta, hasta clasificar artículos por materia, añadir imágenes y otros materiales multimedia del repositorio Commons, retirar textos con derechos de autor, aportar sugerencias, o, para los más inexpertos, señalar simplemente cualquier defecto encontrado con la finalidad de que otros lo corrijan. Actualmente, 72 son administradores humanos y 36 son sistemas de mantenimiento robot como «trabajadores automáticos» de mantenimiento. Usuario anónimo Para colaborar no es necesario registrarse. Por ese motivo, los contribuyentes que no se registran, conocidos como usuarios anónimos, aparecen identificados en sus ediciones con un número de IP en lugar de con un alias. Por no estar registrados, tienen restringidas ciertas acciones, como la de votar en la toma de decisiones. Usuario registrado En Wikipedia el registro es gratuito e instantáneo. El
  • 95. usuario registrado, a diferencia del anónimo, se identifica con un alias y una página de usuario propia,nota 7 además de poder personalizar su interfaz de edición wiki. Una condición necesaria a la hora de registrarse es elegir un alias que no resulte ofensivo o difícil de escribir.107 A algunos usuarios que ya llevan un cierto tiempo editando en Wikipedia sin problemas se les asigna la categoría de autoconfirmados; sus ediciones aparecen en la página de cambios recientes con un fondo diferente al del resto de los usuarios. Es una medida de economía de esfuerzos que permite que los usuarios que se dedican a combatir vandalismo y revertir ediciones incorrectas, basándose en la confianza en estos usuarios, se abstengan de comprobar sus ediciones y de este modo focalicen su labor en el resto de las ediciones, disminuyendo el volumen de trabajo con menor riesgo de equivocarse. Al día de hoy, en la edición en español hay registrados 5 519 247 usuarios, de los cuales menos del 0,3 % son usuarios activos —usuarios que han realizado al menos una acción en los últimos 30 días—. De acuerdo a Christian Stegbauer, un sociólogo alemán, «por el número de colaboradores no puede definirse si Wikipedia es democrática o no». En sus propias palabras, y refiriéndose a la Wikipedia en alemán: «nuestra conclusión es que en el fondo son menos de 1000 personas las que deciden sobre esta enciclopedia digital».108 Se ha comprobado que determinados usuarios crean las llamadas cuentas de propósito particular; estos usuarios se registran con el único propósito de introducir información que beneficie sus propios intereses, motivo por el cual en numerosas ocasiones sus ediciones son
  • 96. sesgadas, parciales o inútiles desde el punto de vista enciclopédico.107 Según un análisis publicado el 1 de abril de 2009 por el investigador español José Felipe Ortega, del grupo Libresoft, de la Universidad Rey Juan Carlos, Wikipedia había sufrido «un descenso notable de editores» en todas sus versiones lingüísticas entre 2007 y 2009. La noticia fue ampliamente recogida por los medios de comunicación.109 Esta última afirmación fue desmentida por Jimmy Wales, fundador de Wikipedia.110 Funciones de administración Una pequeña parte de los usuarios de Wikipedia —alrededor del 0,5 % de los usuarios activos y del 1,4 o/oooo del total de usuarios registrados en la Wikipedia en español—111 se dedica a labores administrativas. Estos usuarios ejercen esas funciones —tras ser propuestos por parte de otro u otros usuarios, generalmente veteranos— en una votacióndemocrática abierta a la totalidad de la comunidad de usuarios registrados, y los requisitos y normas de dicha votación —y de cualquier votación en general— se recogen en una política llamada «Votaciones».112 Según el sociólogo alemán Christian Stegbauer, «[l]o interesante es que los administradores son elegidos, y así obtienen una especie de legitimidad democrática. Por otro lado, solo una parte de las personas participa activamente en dicha elección, y muchos de ellos ya son administradores. Si es un administrador el que propone a un candidato, la probabilidad de ser elegido es mayor que si la propuesta proviene de otro miembro».113
  • 97. La Fundación Wikimedia describe los siguientes cargos administrativos principales, innecesarios para editar, pero sí necesarios para asuntos de protección y coordinación en el software:114 Los supresores de edición son usuarios que eliminan ediciones, decidiendo cómo de manera compleja. Los «bibliotecarios» son usuarios que pueden bloquear a otros usuarios para la edición, y también pueden borrar artículos con información innecesaria. Los denominados checkusers —en español, revisores de usuarios— pueden rastrear una dirección IP para verificar identidades. Esto necesario para evitar un sistema de duplicación llamados usuarios títeres usado con fines de ventaja en votaciones o de engaño. Los llamados «burócratas» tienen permisos para otorgar estatus de administrador, controlar los bots y cambiar nombres de usuario. Según declaraciones oficiosas de un bibliotecario colombiano de la Wikipedia en español, existe un problema de comunicación entre los bibliotecarios de esta Wikipedia en el ejercicio de las políticas y algunas personas que se consideran expertas en determinados temas, y este problema redunda en perjuicio para la enciclopedia. También afirma que los bibliotecarios de la Wikipedia en español eliminan más artículos que los de otras versiones de Wikipedia.115 En cualquier caso, las declaraciones de los usuarios de Wikipedia, ostenten cargo administrativo o no, deben tomarse como una mera opinión personal sin la menor representatividad, puesto que, si bien los bibliotecarios son elegidos democráticamente por el resto de los usuarios, entre sus
  • 98. funciones no se encuentran las de representar a la comunidad o a Wikipedia ni la de establecer autoridad más allá de la que les confiera el ejercicio de las políticas.116 Bot Regularmente operan en Wikipedia varios sistemas de edición automática. Se denominan bots —contracción de robot—, y cumplen la realización de ciertas tareas tediosas para los editores, como la creación de enlaces entre las distintas ediciones de la enciclopedia, pequeños ajustes internos del código wiki, la corrección de faltas ortográficas, etc. Algunas ediciones de Wikipedia utilizan también bots para la creación masiva de artículos, normalmente esbozos. Para ser considerados como tales deben tener al menos el afijo BOT y un supervisor, el cual es el usuario propietario.117 Acceso Captura de Kiwix, la versión offline de Wikipedia, 2012. Un libro impreso en papel de Wikipedia. Este tipo de libros se puede obtener mediante PediaPress. Aparte del sitio web, se han elaborado otras versiones alternativas que cumplen la misión de visualizar artículos a pesar de las críticas a la censura de artículos. En los móviles En agosto de 2009, la Fundación Wikimedia lanzó una aplicación oficial de Wikipedia para el iPhone y el iPod Touch que se puede descargar de la App Store. Esta aplicación es libre, gratuita y solo funciona en el iPhone
  • 99. 3G o en versiones más recientes.118 También hay versión para Android.119 En cuanto a acceso mediante sitio web, ya existían alternativas como el sitio Wapedia; sin embargo, Wikipedia cuenta con su propia versión móvil del sitio, disponible en línea. En aplicaciones virtuales Otras versiones publicadas por la Fundación Wikimedia fueron las distribuciones en soporte físico sobre CD (2003) y DVD (2005), en las cuales se incluían las versiones en alemán, polaco, portugués e inglés. Esto se hace mediante el software libre Kiwix que permite su instalación directa. Estas características permiten que sea posible ser usadas en computadoras sin conexión a internet, permitiendo la interactividad y comunicación entre diferentes puestos como por ejemplo centros infantiles.120 En versiones impresas En Wikipedia hay servicios que ofrecen la versión impresa. MediaWiki ha incorporado una herramienta de recolección para exportar artículos a ODF o PDF.121 También existe la posibilidad de imprimir libros vía PediaPress, un programa socio de la fundación Wikimedia, mediante la misma solicitud.122 Restricciones de acceso Desde octubre de 2005, China había bloqueado el acceso a Wikipedia, pues el gobierno bloquea habitualmente el acceso a los sitios web que considera subversivos y filtra las páginas de Internet con términos que considera delicados.123 Un año después, Wikipedia fue desbloqueada en el territorio chino, aunque la
  • 100. censura se mantuvo parcialmente con los términos «sensibles», tales como Tíbet o Falun Gong.124 En 2008, varios centros educativos de los Estados Unidos prohibieron el uso de Wikipedia desde sus instalaciones por considerarla poco fiable.125 También en el mismo año, 160 000 usuarios solicitaron a través del sitio web Care 2 la retirada de las imágenes sobre Mahoma en los artículos de Wikipedia. En este caso la petición fue rechazada.126 En octubre de 2011, debido a la aprobación de la ley mordaza, la Wikipedia en italiano tuvo que suspender las actividades por temor a la severas multas que ejecutarían en sus contenidos biográficos.127 De manera similar, en enero de 2012, la versión inglesa se autocensuró para protestar a la ley SOPA durante un día entero. Uno de los delegados de Twitter, Dick Costolo, consideró al sitio web que «cerrar un negocio global por un solo asunto de política nacional es una locura».128 129 Fundación Wikimedia y proyectos hermanos Nota: No debe confundirse Wikipedia con la Fundación Wikimedia, la organización no gubernamental que mantiene al sitio web Wikipedia. El sitio web de Wikipedia está mantenido exclusivamente por la Fundación Wikimedia, una organización sin ánimo de lucro instituida bajo las leyes de Florida (Estados Unidos) cuya finalidad es promover en el mundo apoyo económico y social para varios proyectos colaborativos de contenido libre.130131 Su existencia fue oficialmente anunciada por el director general de Bomis y cofundador de Wikipedia, Jimbo
  • 101. Wales, el 20 de junio de 2003. Proyectos complementarios de apoyo Dos de los proyectos de la Fundación Wikimedia actúan como complementos del resto de los proyectos, incluyendo a Wikipedia. Uno es un almacén de contenido multimedia que los editores del resto de los proyectos pueden incrustar a modo de ilustraciones, y el otro se encarga del software que sustenta a todos los proyectos:132 Wikimedia Commons: También recibe los nombres de Commons o La Comuna, es un depósito común de imágenes y contenido multimedia libre para los proyectos hermanos de la Fundación Wikimedia. Antes de su existencia, para usar una imagen en una cierta Wikipedia había que subirla a la edición correspondiente, con lo que se clonaba el mismo contenido varias veces, algo realmente ineficiente. Para ello se usaban scripts de subida masiva, que ahora han caído en desuso por la existencia de Commons. Meta-Wiki: Es un sitio web cuyo sistema administra la tecnología wiki para la visualización de las páginas de los proyectos de la Fundación Wikimedia. Proyectos hermanos Hay contenidos que no tienen cabida en Wikipedia por no ser información enciclopédica. Por ello se han desarrollado varios proyectos hermanos independientes entre sí que recogen este otro tipo de información. Todos ellos son también multilingües y libres y están administrados por la Fundación Wikimedia.133
  • 102. Wikcionario: Es el proyecto de la Fundación Wikimedia para la construcción de un diccionario libre. Tiene una función complementaria a Wikipedia, ya que un gran número de artículos, por su carácter no enciclopédico, se destinan al diccionario. Wikilibros: Tiene por objetivo poner a disposición de cualquier persona libros de texto, manuales, tutoriales u otros textos pedagógicos de contenido libre y de acceso gratuito. Wikiversidad: Apoyada en el anterior, se propone como una plataforma educativa en línea, libre y gratuita, donde es posible crear proyectos de aprendizaje a cualquier nivel educativo, participar en un grupo de aprendizaje, crear contenidos didácticos tales como exámenes, ejercicios de prácticas, etc. Wikiquote: Es un compendio abierto en línea de frases célebres en todos los idiomas, incluyendo las fuentes —cuando estas se conocen—. Wikinoticias: Es una fuente de noticias de contenido libre. Wikisource: Es una biblioteca en línea de textos originales que han sido publicados con una licencia GFDL o se encuentran en el dominio público. Wikiespecies: Es un repertorio abierto y libre de especies biológicas cuyo objetivo es abarcar todas las formas de vida conocidas. Wikiviajes: Es una guía turística libre. Software y hardware Wikipedia recibía en 2008 entre 10 000 y 30 000 peticiones de páginas por segundo, dependiendo de la hora del día.134 Más de 250 servidores soportaban el
  • 103. tráfico.nota 8 Wikipedia se ejecuta sobre el software libre MediaWiki en un cluster —agrupación— de servidores situados en Florida y en otros lugares del mundo: 239 máquinas en Florida, 22 en Ámsterdam y 23 en las instalaciones coreanas de Yahoo!135 MediaWiki es la fase III del programa, cuya historia de desarrollo es la siguiente: Fase I: Originalmente, Wikipedia se ejecutaba en UseModWiki, creado por Clifford Adams. Al principio era necesario usar CamelCasepara los enlaces; después esto se solucionó y fue posible usar dobles corchetes. Fase II: En enero de 2002, Wikipedia comenzó su funcionamiento sobre un motor wiki en PHP con base de datos MySQL. Este software, fase II, fue escrito por Magnus Manske específicamente para el proyecto Wikipedia. Más tarde se implementaron muchas mejoras y modificaciones para incrementar el rendimiento debido a la creciente demanda. Fase III: Por último, el software fue reescrito por Lee Daniel Crocker. Establecida en julio de 2002, esta fase III del programa se llamó MediaWiki. Está amparada bajo la licencia GPL y es usada por todos los proyectos de Wikimedia. En octubre de 2008, sus servidores migraron a Ubuntu.136 Impacto popular Wikipedia es uno de los sitios web más visitados y
  • 104. referenciados del mundo en Internet, y consecuentemente es uno de los primeros sitios —o incluso el primero, en muchos casos— de entre los que aparecen en los resultados de los motores de búsqueda.11137 Este hecho, sumado a la influencia cada vez mayor de Internet sobre las personas, trae como consecuencia un enorme impacto popular de la enciclopedia colaborativa a todos los niveles, impacto que se va acrecentando a medida que pasa el tiempo.138138 En los últimos años, Wikipedia ha estado influyendo notablemente en los medios de comunicación, sobre todo periodísticos, los cuales en numerosas ocasiones copiaron información de la web enciclopédica, la mayoría de las veces sin citar la fuente.139 A este respecto, es bastante ilustrativo el experimento realizado por Shane Fitzerald, un estudiante universitario dublinés de 22 años, publicado el 6 de mayo de 2009 por el periódico IrishTimes.com:140141 Tras enterarse del fallecimiento de Maurice Jarre unas horas antes, Shane editó el artículo correspondiente al compositor para incluir una cita ficticia: [[PASTING TABLES IS NOT SUPPORTED]] Poco después la cita apareció en las secciones necrológicas de los periódicos The Guardian y The London Independent, en el sitio web The BBC Music Magazine y en periódicos de la India y Australia. Este experimento demuestra la fuerza de Internet a escala global. Los periodistas que usaron esta cita obviamente confiaron en Wikipedia como fuente de información; tal vez no podían permitirse el lujo de
  • 105. realizar investigaciones ulteriores bajo la presión de la necesidad de ser los primeros en publicar la cita, y como resultado proporcionaron a los lectores una información falsa. En cuanto a Wikipedia, los errores normalmente se corrigen con prontitud, aunque, en casos como el relatado, no lo suficiente como para adelantarse a los acontecimientos. Este tipo de experimentos raramente se realizan en Wikipedia, y los editores que son descubiertos reciben por parte de los administradores severos castigos que, en función de la gravedad de su falta, pueden llegar al bloqueo de su dirección IP a perpetuidad. Por otra parte, existen personas que acusan a Wikipedia de difamación, y es ilustrativo el caso de Alejandro Peña Esclusa, quien afirmaba que el gobierno de su país estaba llevando contra él una campaña en la que colaboró la enciclopedia.142 En cualquier caso, Wikipedia, como proyecto de fuente no primaria que es, se basa en una serie de políticas que promueven la verificabilidad y el uso de fuentes fidedignas y reputadas. A partir de este punto, Wikipedia delega cualquier tipo de responsabilidad en el momento en que publica el nombre de la fuente de la que se obtuvo la información. De ahí, entre otras cosas, la importancia de la verificabilidad, uno de los cinco pilares básicos sobre los que se sustenta el proyecto.143 Se han producido varios casos en los que dirigentes políticos, o personas próximas a ellos, modificaron artículos de Wikipedia interesadamente.144145 En otro orden de cosas, se han creado versiones que la parodian. Entre las más conocidas se encuentran, en
  • 106. inglés, Uncyclopedia y Encyclopædia Dramatica, y, en español, La Frikipedia e Inciclopedia. En historietas humorísticas, Skeletor aparece vandalizando el artículo de He-Man.146 Premios y reconocimientos Debido a sus méritos y popularidad, el sitio web ha obtenido a lo largo de los años varios galardones y menciones.148 Algunas muestras son las siguientes: En abril de 2004, Jonathan Dee, de The New York Times,149 y Andrew Lih, en el 5th International Symposium on Online Journalism(2004),150 citaron la importancia de Wikipedia no solo como enciclopedia de consulta sino también como fuente de información actualizada debido a la rapidez con que aparecían los artículos sobre eventos recientes. El 23 de junio de 2004, Wikipedia recibió el premio Golden Nica for Digital Communities en el concurso anual de Prix Ars Electronica, dotado con mil libras esterlinas.151 En la primavera de 2004, se le concedió el Premio Webby en la categoría «Best Community» —«Mejor Comunidad»—.152 En 2006, la revista Time nombró a “You” —en español, 'usted, tú, vos'— como «Persona del año», reconociendo así el éxito acelerado de la colaboración en línea y de la interacción entre millones de usuarios de todo el mundo; asimismo citó a Wikipedia como uno de los tres ejemplos de
  • 107. servicios «Web 2.0», junto con YouTube y MySpace.153 El 26 de enero de 2007, Wikipedia obtuvo el cuarto lugar en una encuesta realizada a los lectores de brandchannel.com, recibiendo el 15 % de los votos en respuesta a la pregunta «¿Qué marca tuvo el mayor impacto en nuestras vidas en 2006?».154 El 24 de octubre de 2008 Wikipedia participó, junto con otros 23 sitios web nominados, en el Premio Príncipe de Asturias de Comunicación y Humanidades. El ganador fue la división española de Google.155 A destacar que, en 2010, la empresa Google donó dos millones de dólares a la Fundación Wikimedia al tiempo que mencionaba a Wikipedia como «uno de los grandes triunfos de internet».156 En 2013, Andriy Makukha de Wikimedia Ucrania propuso el nombre «Wikipedia» al asteroide 2008 QH24. (274301) Wikipedia es un asteroide del cinturón de asteroidesdescubierto en 2008. La designación fue avalada por la Unión Astronómica Internacional (UAI).157158 La designación oficial del asteroide «Wikipedia» dice: Wikipedia es una enciclopedia libre, copyleft y colaborativamente editada lanzada en 2001. En 11 años de su recopilación se convirtió en una de las más importantes obras de referencia y en uno de los sitios más visitados de Internet. Es desarrollada por
  • 108. entusiastas de todo el mundo en más de 270 idiomas . Designación del MPC159 El 17 de junio de 2015 le fue otorgado el Premio Princesa de Asturias de Cooperación Internacional.160 Importante ejemplo de cooperación internacional, democrático, abierto y participativo, en el que colaboran desinteresadamente miles de personas de todas las nacionalidades, que ha logrado poner al alcance de todo el mundo el conocimiento universal en una línea similar a la que logró el espíritu enciclopedista del siglo XVIII Fundación Princesa de Asturias Estadísticas sobre visitas Según las estadísticas hechas por Alexa, sobre las Wikipedias más visitadas161 y sobre los países que más visitan Wikipedia se muestran los siguientes:162 [[PASTING TABLES IS NOT SUPPORTED]] En la parte superior del portal www.wikipedia.org, se puede observar a las 10 Wikipedias con más ediciones. Distribución de editores por países Países desde donde se editan los artículos. Wikipedia en alemán: Alemania (68 %), Austria (7,8 %). Wikipedia en español: España (18,4 %), México (16,5 %), Argentina (13,1 %).
  • 109. Wikipedia en francés: Francia (65,8 %), Canadá (5,3 %). Wikipedia en inglés: EE.UU: (32 %), R.U. (9,4 %), India (5,7 %), Canadá (5,3 %). Wikipedia en japonés: Japón (86 %), China (1,8 %). Ver lista completa y otras estadísticas. Estímulos Los usuarios de Wikipedia organizan eventos regulares y ocasionales con el objetivo de promover la creación y edición de artículos. Por ejemplo, en 2006 se creó un proyecto llamado Wiki-reto: 250 k, dedicado a aumentar el número de artículos, con el que se llegó al final del año a los 250 000 artículos en la Wikipedia en español.164 Proyectos de ese tipo o similares se organizan cada año. Por otro lado, existe una serie de proyectos incluidos en el propio sitio web que reciben el nombre de wikiproyectos, cada uno de los cuales se dedica a trabajar sobre un tema específico —correcciones ortográficas, creación y ampliación de artículos de determinado campo, manejo de ilustraciones, etc.165 Fuera del sitio web, otros han expresado las impresiones personales que el sitio les produce. Por ejemplo, Vicente Verdú, en un artículo de la versión digital del periódico El País, describió la experiencia de usar Wikipedia como «una divertida y multitudinaria manera de gozar, jugar, amar y pasar el rato».166 Por su parte, en un artículo de opinión en Terra Networks Perú se consideraba que su uso desordenado y excesivo causaba «wiki adicción».167
  • 110. En una entrevista con Jimmy Wales, representante de la Fundación Wikimedia, para EFE, este explicó su creencia de que la expansión de Internet en otros países ampliaría el uso de Wikipedia sobre todo en lugares subdesarrollados, creando de este modo una conexión de culturas.168 Con motivo del décimo aniversario de Wikipedia, el mismo Wales declaró su deseo de que Wikipedia alcanzase los 1000 millones de usuarios para 2015.169 En el ámbito económico, Alex Konanykhin, fundador y presidente de WikiExperts.us —no perteneciente a Wikimedia—, presentó a Wales una propuesta de colaboración. El plan consistía en ofrecer los servicios de una red de escritores por contrato a todas las empresas o entidades que cumpliesen con los requisitos de rigor exigidos por Wikipedia para crearles sus propios artículos de forma enciclopédica. Según Konanykhin, este modelo financiero aseguraría el futuro de Wikipedia.170 No obstante, Wikipedia, lejos de presentar apuros económicos, ha batido su récord de recaudación en la campaña efectuada para el ejercicio de 2011, con 16 millones de dólares procedentes de 500 000 donantes de 140 países, todo ello en tan solo un mes y medio.171 Críticas Pierre Assouline et al. (2008) son algunos de los pensadores con postura crítica hacia Wikipedia y hacia sus contenidos. Al igual que ha recibido alabanzas, la Wikipedia es objeto de numerosas críticas en sus contenidos o carencias de contenidos, la calidad de los mismos y el
  • 111. sistema establecido para la recepción de los nuevos editores. Falta de referencias y de contenidos Desde su nacimiento, Larry Sanger ya discrepó por la posible falta de veracidad, y le siguieron después otros autores, caso de Arias Maldonado (2010, p. 15-31) o Assouline et al. (2008). Incluso los que la defienden como una obra documentada, caso de Tim O'Reilly, la colocan en los últimos puestos.172 Ndesanjo Macha indica que muchas veces lo más enriquecedor está en las discusiones y no en el artículo propiamente dicho, porque allí pueden reflejarse mejor los distintos puntos de vista y las lagunas existentes. Para Bob McHenry, exeditor de la Enciclopedia Británica, uno de los mayores riesgos a los que se enfrenta Wikipedia es la entrada de personas convencidas de que su punto de vista es el verdadero, impidiendo incluir cualquier otro. Por esta razón, lo realmente valioso puede aparecer en las discusiones y no el artículo, como confirma Ndesanjo Macha.172 Para Assouline et al. (2008, p. 12) Wikipedia está matando los valores de verificación y consulta de fuentes primarias que deben tener los periodistas, historiadores o profesionales del conocimiento en general. Según el autor "esta enciclopedia en línea es también el instrumento ideal para desinformar" al ser editada por partidos políticos y otros grupos de presión.173 Además presenta problemas en la diferenciación de lo importante y lo superfluo: así, en la versión francesa, la entrada sobre Albert Londres comenzaba diciendo «periodista judío francés [...]»
  • 112. como si su religión fuese el segundo dato más importante del resumen, incierto al mismo tiempo por ser londinense y católico, fruto de una campaña para desacreditarlo haciéndolo pasar por judío. Otro ejemplo era el artículo sobre Alexandre Solzhenitsyn que dedicaba la mitad de su contenido a la relación del escritor con España, por haber realizado un comentario sobre Francisco Franco que no gustó al redactor.174 Los ejemplos dados por Assouline sobre la excesiva extensión de unos contenidos frente a otros fueron refrendados por un estudio dirigido por la Universidad de Minnesota, junto a otras tres, en 2011. La conclusión fue que la Wikipedia en inglés mostraba que los artículos realizados por mujeres, presumiblemente destinados más a un público femenino, eran significativamente más cortos que los redactados por hombres o por hombres y mujeres. En ese mismo año la Universidad de Oxford demostró que el 84 % de las referencias a localidades se situaban en Europa y América del Norte, del mismo modo que la Antártida contaba con más artículos que África o Sudamérica.175 Errores y vandalismo El vandalismo es uno de los problemas más recurrentes. Existen diferentes herramientas para combatirlo. En la imagen se muestra la reversión automática de dos ediciones vandálicas. Dos de los principales motivos por los cuales Wikipedia es criticada en cuanto a la exactitud y fiabilidad de sus contenidos son la persistencia de detalles erróneos difíciles de detectar —imprecisiones no necesariamente malintencionadas, pero que pueden permanecer en un
  • 113. artículo por mucho tiempo—.176 Por su parte los actos vandálicos, modificaciones inapropiadas u ofensivas de los artículos que entorpecen el desarrollo del proyecto, constituyen un importante factor en las problemáticas de contenido, cuya solución a largo plazo no pasa —como sucede en los otros dos casos— por una mejora constante de la calidad ni por la incorporación o ampliación progresiva de artículos. Mientras que las inexactitudes de contenido y las tendencias de crecimiento irregular175 pueden ser subsanadas a medida que siga evolucionando el proyecto —y aumenten las ediciones de artículos—, el vandalismo representa una amenaza constante que se incrementa en proporción al crecimiento exponencial de Wikipedia. Por ejemplo, la exposición a una mayor afluencia de visitas a los artículos publicados en varios medios de prensa implicaba un porcentaje muy alto de vandalismos —incluidos de personajes públicos—, casi tanto como el de cambios constructivos.177178179 Pero no solo se trata de ediciones dentro de artículo, también existen artículos enteros falsos.nota 9 La Wikipedia en inglés posee una entrada dedicada solo a ellos, como también la Wikipedia en español. La existencia de artículos falsos con una duración de casi diez años siembra dudas sobre la capacidad de Wikipedia para autocorregirse. En otros casos, además de la duración destaca los sucesivos filtros por los que pasaron, caso del Conflicto de Bicholim que fue redactado sin que nadie se percatara del fraude, propuesto a Bueno, elegido como Artículo Bueno, propuesto a Destacado y rechazado por cuestiones técnicas sin que nadie comprobase la veracidad de los
  • 114. contenidos.180 De manera similar pasó con el artículo Cayo Flavio Antonino, supuesto asesino de Julio César, cuya entrada permaneció ocho años en forma de esbozo.181 Uno de los más controversiales fue Santiago Swallow, conferencista ficticio creado por Kevin Ashton y que fue descubierto al publicarse un artículo de prensa donde el autor declaró que «invirtió 68 dólares para hacerlo famoso».182183 En 2014 se desarrolló un algoritmo hecho por la Universidad de Nanjing de Correos y Telecomunicaciones sobre la base de la red bayesiana, método similar a la detección de correo basura; se piensa que el sistema se implementará en un futuro próximo.184 Un ejemplo paradigmático de vandalismo masivo se produjo el 31 de julio de 2006 como consecuencia de una llamada a la participación por parte de Stephen Colbert, un conocido humorista y presentador de la televisión norteamericana, en una sección de su programa The Colbert Report que tituló Wikiality:186 Después de algunos gags en torno a la posibilidad de cambiar la ubicación de estados y países en sus respectivas definiciones de Wikipedia, animó a los telespectadores a modificar la entrada 'elefante' para que constara que, en lugar de disminuir, la población del elefante africano se había triplicado. Como resultado inmediato, hasta veinte entradas de la Wikipedia en inglésque hacían referencia a elefantes fueron bloqueadas por sus administradores, o bien pasaron a estado de semi-protegidas, solo modificables por usuarios registrados con un mínimo de antigüedad. Para todos los ejemplos citados y sus variantes, aparte de las medidas correctoras llevadas a cabo en forma de reversión, aviso o bloqueo, la comunidad de wikipedistas
  • 115. crea y mantiene —al igual que sucede entre programadores voluntarios en entornos de software libre— toda una serie de herramientas e implementaciones técnicas destinadas a actuar contra el vandalismo, desde foros y canales específicos de IRChasta programas paralelos de detección y aviso, pasando por usuarios que son en realidad programas bot cuya misión es exclusivamente combatir los actos vandálicos. Parece que con dichas modificaciones ese problema comenzó a estar bajo control desde 2007, pero limitó las posibilidades de supervivencia de Wikipedia.175 En otras ocasiones los errores llegan por la confusión. Algunos han confundido «Wikipedia» con «WikiLeaks»,187 un sitio de almacenamiento de documentos filtrados conocido por la polémica del cablegate. Jimmy Wales, cofundador de Wikipedia, explicó que, cuando en 2006 WikiLeaks comenzó sus actividades, se presentó como la 'Wikipedia de los secretos'. Cuando Wales fundó Wikipedia creó una organización llamada Wikia. Esta organización se encargó de registrar los dominios bajo el término Wiki, y permitió a WikiLeaks en sus comienzos la utilización del término Wiki y su dominio correspondiente. No obstante, actualmente —enero de 2011—, los dominios adquiridos por WikiLeaks están a punto de caducar, y Jimmy Wales no tiene intención de renovar el contrato ya que, en sus propias palabras, no desea que Wikipedia se relacione con WikiLeaks.188 Manipulaciones y sesgo El proyecto cuenta con importantes subvenciones de multinacionales estadounidenses, de intereses
  • 116. capitalistas.189190 Por otro lado, en opinión de César Rendueles, doctor en filosofía, profesor asociado de la Universidad Complutense de Madrid191 y usuario de Wikipedia, «todo [en Wikipedia] es mucho más doméstico de lo que alguna gente se imagina». En su opinión, «la enciclopedia está “controlada” por todos aquellos que generosamente dedican su tiempo regularmente a la edición de artículos», y afirma que como resultado la enciclopedia refleja el perfil predominantemente conservador —aunque en muchos casos para la redacción de artículos, muestra el lado liberal, dando mayor énfasis en la libertad de contenido que en la cooperación del mismo—192193 de quienes disponen de más tiempo libre. Concluye diciendo que «una mayor presencia de la comunidad universitaria y escolar sería un auténtico soplo de aire fresco» para la enciclopedia.194 Opinión contraria a otros autores como Daniel Rodríguez Herrera, para quien la Wikipedia posee una clara tendencia izquierdista, lo cual se comprueba viendo los resúmenes de Stalin y otros dirigentes comunistas que no son llamados en ningún momento "dictadores", solamente líderes.195 Algunas empresas han intentado en repetidas ocasiones manipular la información que aparece sobre ellas en Wikipedia enfatizando los aspectos positivos y suavizando o eliminando los negativos con el fin de mejorar su imagen corporativa. Por ejemplo, Microsoft eliminó un párrafo donde aparecían los errores de su consola Xbox 360, y el consorcio petrolífero Chevron- Texaco borró todo un texto sobre biodiésel. En 2013 el diario económico Expansión denunció las acciones de algunas de las principales empresas españolaspara manipular su historial o alterar favorablemente las
  • 117. biografías de sus directivos.196 Cambios de este tipo pueden ser detectados con la utilización de una herramienta llamada WikiScanner.197 Otras críticas, además de en su precisión, han estado refiriéndose a la violación de la intimidad de algunas personas,198199 a la adición de imágenes interpretadas como pornografía infantil,200201 la escasa certeza en las entradas sobre temas de salud,202 o a la creación de artículos biográficos sobre animales. Algunas denuncias llegaron a ser muy notorias y graves como el uso del escudo perteneciente a la Oficina Federal de Investigación en uno de sus artículos.203 Un tema de controversia en ciertos medios es la labor de algunos administradores —«bibliotecarios»—, que se extralimitan en sus funciones bloqueando a otros usuarios y generando enfados, razón por la cual varios quieren mantener su incógnito por miedo a represalias.174 También el ambiente de Wikipedia permite e incluso fomenta ese tipo de actuaciones; pues, según Arias Maldonado,204 una de las partes divertidas de Wikipedia es conspirar. Una evidencia por parte de FiveThirtyEight sobre los 100 artículos más editados de la versión en inglés muestra que los temas más controvertidos para la Wikipedia son los deportes, personajes del entretenimiento norteamericano, política y religión. En el top de la lista están los artículos sobre Estados Unidos, Michael Jackson, Jesucristo y los luchadores de la WWE, el último mucho mayor que el artículo del Real Madrid.205 Género Un estudio sobre el tratamiento desigual en los
  • 118. contenidos de la mayor enciclopedia de la web dio cuenta de que solo las grandes mujeres están bien representadas en la enciclopedia y los artículos sobre ellas presentan desigualdades de género.206207 Reducción en el número de visitas y de editores A pesar de que cada vez más personas se informan en Wikipedia, este sitio web ha visto una baja significativa en sus visitas en el buscador Google, unos 250 millones en tres meses (abril-junio de 2015) que representa cerca del 11 %, así lo informó un estudio de Similar Web, empresa británica de tecnología e información y luego corroborado por el cofundador de Wikipedia, Jimmy Wales.208 Una de las razones de esa brusca caída puede ser que el buscador da una referencia directa a Wikipedia al lado derecho de la pantalla, lo que quitaría la necesidad de cliquear el enlace.209 Según la tesis doctoral de Ortega Soto (2009) las principales versiones de Wikipedia (inglesa, alemana, japonesa, española, etc) estaban perdiendo usuarios porque los nuevos editores no compensaban en número a los veteranos que abandonaban la edición. Además había disminuido el tiempo medio que un editor tardaba en desistir. Esta tendencia la confirmó en 2013 Tom Simonite, del Instituto Tecnológico de Massachusetts (MIT), cuando confirmaba que la propia Fundación Wikimedia reconocía que la enciclopedia en línea tenía problemas ante la carencia cada vez más acusada de voluntarios.175 Spotify es una aplicación multiplataforma sueca, empleada para la reproducción de música vía streaming. Cuenta con un modelo de negocio premium, un servicio
  • 119. gratuito básico y con publicidad; pero con características adicionales, como una mejor calidad de audio, a través de una suscripción de pago. Permite escuchar en «modo radio», buscando por artista, álbum o listas de reproducción creadas por los propios usuarios. El programa se lanzó el 7 de octubre de 2008 al mercado europeo, mientras que su implantación en otros países se realizó a lo largo de 2009.2 Está disponible para los sistemas operativos Microsoft Windows, Mac OS X, Linux, Windows Phone, Symbian, iOS, Android y BlackBerry. La empresa sueca, que tiene su sede en Estocolmo, Suecia, ha firmado acuerdos con las discográficas Universal Music, Sony BMG, EMI Music, Hollywood Records, Interscope Records y Warner Music entre otras.3 A abril del 2019, el servicio cuenta con 217 millones de usuarios activos, de los cuales 100 millones son usuarios de pago.4 Modo de funcionamiento y requisitos del sistema[editar] Spotify ofrece transferencia de archivos de audio por Internet a través de la combinación de servidores dedicados al streaming y en la transferencia de red de pares (P2P) en la que participan los usuarios. Una conexión a Internet de 256 kbit/s es suficiente, y la tasa de bits de las pistas es de 320 kbit/s. Los archivos de audio se pueden reproducir bajo demanda, como si estuvieran en el disco duro del usuario. Las canciones se guardan en la caché del software para evitar consumir más ancho de banda al repetir las canciones una y otra vez. Utiliza el códec de audio Vorbis (Ogg).
  • 120. Los usuarios en modo premium acceden un nivel de calidad de audio superior (q9). El contenido de la caché del software se basa en un índice que sirve para que Spotify conecte con el servicio. Este índice se utiliza para informar a otros clientes sobre otros usuarios que pueden conectarse a los datos para que se reproduzcan las pistas que desea escuchar. Se hace por cada cliente que utiliza el programa; al inicio, actuando como un servidor para escuchar las conexiones entrantes de otros usuarios de Spotify así como la conexión de forma intuitiva a otros usuarios para el intercambio de datos en caché, según proceda. Actualmente no hay datos oficiales de los desarrolladores acerca de cuántas conexiones y la cantidad de ancho de banda que ofrece cada usuario al sistema; el software no ofrece ninguna forma para que el usuario pueda configurar estos parámetros. Los requisitos del sistema son, al menos, Mac OS X 10.7, Windows Vista o superior. También es posible ejecutar el programa en GNU/Linux. El tamaño de la caché lo puede limitar el usuario y se puede elegir la ubicación de memoria de caché. Se recomienda para la caché por lo menos 1 GB de espacio libre. El usuario debe configurar una cuenta para poder utilizar la aplicación. Esta cuenta puede utilizarse en varios dispositivos, pero solo puede reproducir música en un dispositivo a la vez. Disponibilidad geográfica[editar] Spotify está disponible en 65 países, estos son Alemania, Andorra, Argentina, Australia, Austria, Bélgica, Brasil, Bolivia, Bulgaria, Canadá, Chile, Colombia, Costa
  • 121. Rica, Chipre, Dinamarca, Ecuador, El Salvador, Estonia, Eslovaquia, España, Estados Unidos, Filipinas, Finlandia, Francia, Grecia, Guatemala, Honduras, Hong Kong, Hungría, Indonesia, Irlanda, Islandia, Italia, Japón, Letonia, Liechtenstein, Lituania, Luxemburgo, Malaysia, Malta, México, Mónaco, Nicaragua, Noruega, Nueva Zelanda, Países Bajos, Panamá, Paraguay, Perú, Polonia, Portugal, Reino Unido, República Checa, República Dominicana, Singapur, Suecia, Suiza, Tailandia, Turquía y Uruguay.5 Únicamente los clientes de los países mencionados pueden comprar una cuenta «Premium» mediante una tarjeta de crédito o débito o una cuenta de Paypal.6 Cronología de lanzamientos[editar] Spotify se puso en marcha (por invitación solamente) en los países escandinavos, el Reino Unido, Francia y España en octubre de 2008. Mapa que muestra la disponibilidad de Spotify en el mundo en 2019. Spotify fue lanzado en los Estados Unidos el 14 de julio de 2011,7 en Dinamarca se lanzó el 12 de octubre de 2011 .8 y en Australia y Nueva Zelanda el 22 de mayo de 2012.9 El 13 de noviembre de 2012 empezó a estar disponible para la República de Irlanda y Luxemburgo. El 11 de febrero de 2013 entró a los mercados de Italia, Polonia y Portugal. Spotify fue lanzado en México, Hong Kong, Malaysia, Singapur, Estonia, Letonia, Lituania e Islandia los días 15 y 16 de abril de 2013.10 y en Australia y Nueva Zelanda el 22 de mayo de 2012.11 El 3 de diciembre de 2013 empezó a estar operativo en
  • 122. Colombia como una promoción pre-estreno auspiciada por Coca-Cola.12 El 24 de septiembre de 2013, Spotify se lanzó en Argentina, Grecia, Taiwán y Turquía.1314 El 11 de diciembre de 2013, Spotify empezó a estar disponible en Costa Rica. El 12 de diciembre de 2013, Spotify fue lanzado simultáneamente en 20 nuevos mercados. Los países agregados fueron: Bolivia, Bulgaria, Chile, Colombia, Costa Rica, Chipre, Ecuador, El Salvador, Eslovaquia, Guatemala, Honduras, Hungría, Malta, Nicaragua, Panamá, Paraguay, Perú, República Checa, República Dominicana y Uruguay.1516 El 8 de abril de 2014 fue lanzado en Filipinas, el 28 de mayo en Brasil y el 30 de septiembre en Canadá. Fue lanzado en Indonesia un 30 de marzo de 2016 y el 29 de septiembre en Japón. El 22 de agosto de 2017 en Tailandia y un 13 de marzo de 2018 en Israel, Rumania, Sudáfrica y Vietnam. El 13 de noviembre de 2018 fue lanzado en Emiratos Árabes Unidos, Arabia Saudita, Kuwait, Omán, Qatar, Bahrein, Argelia, Marruecos, Túnez, Jordania, Líbano, Palestina y Egipto.17 En la India es lanzado el 26 de febrero de 2019,18 sumando así 79 mercados en los que Spotify está presente. Cuentas y suscripciones[editar] Spotify puede descargarse desde el sitio web de Spotify y utilizarse de cuatro maneras.19 Las versiones «Free» y «Open» son de uso gratuito,
  • 123. financiado por la publicidad que ofrece de forma esporádica el reproductor. En un principio la diferencia entre ambas era que la versión «Free» era accesible solo mediante invitación y no había ningún problema de restricción, mientras que la «Open» era abierta a todo el mundo, teniendo como desventaja que solo permitía veinte horas de reproducción mensuales. A partir del 1 de mayo de 2011 ambas versiones pasan a tener exactamente las mismas características: un límite de 10 horas de reproducción mensuales y la reproducción de cada tema un máximo de cinco veces.20 Por medio del pago de una cuota mensual, cualquier usuario puede adquirir la condición de «Premium» (9,99 €/mes, $9.99 USD, S/.16.90 PEN, $36 ARS o $99 MXN) o «Unlimited» (4,99 €/mes, $4.99 USD $18 ARS o $49 MXN). La «Premium» permite a los miembros escuchar las novedades antes de su lanzamiento y antes que los usuarios de las opciones gratuitas de Spotify; se puede oír el catálogo musical en dispositivos móviles con iOS, Android, Windows Phone y Symbian OS; es posible la escucha sin conexión a la red de ciertas pistas previamente seleccionadas y ofrece mayor calidad de reproducción. Con Spotify Unlimited solo se podrán escuchar los temas en un ordenador y siempre con conexión a Internet. La diferencia de las versión Free respecto a la versión Unlimited es que esta última no tiene anuncios publicitarios, tampoco restricciones temporales ni límite de reproducciones. Desde junio de 2016 estos son los tipos de suscripción de Spotify:
  • 124. [[PASTING TABLES IS NOT SUPPORTED]]Cambios en el mercado musical[editar] Desde finales de la década del 90, la eclosión de Internet produjo una crisis en la industria discográfica derivada de la caída de ventas de soportes digitales. Esta crisis dejó evidente la necesidad de un nuevo modelo de negocio en un contexto en el que la música se convierte en un servicio dejando atrás su materialidad como producto físico. 21 A raíz de esto nacen plataformas de descarga de música de pago. Empresas cómo Spotify han legitimado el acceso a la música online mediante el streaming. Una propuesta que da acceso inmediato a 30 millones de títulos musicales (estos varían en función del país). Hoy en día hay alrededor de 100 millones de títulos publicados 22, con lo cual Spotify no contiene ni el 30% de la totalidad. Aun así, el usuario puede tener la sensación de disponer de una infinidad de opciones puesto que no hay tiempo físico en una vida para escuchar todas ellas. A pesar de la gran difusión del streaming, todavía existen tiendas de vinilos.23 Algunos consumidores de vinilos dicen no haber cambiado al formato digital por no perder la calidad del formato analógico. Otros echan en falta la curación de contenidos en internet y prefieren comprar productos verificados por los productores.24 Estos consumidores también aprecian la experiencia de buscar, abrir, poder ver y exponer los vinilos. Estas son sensaciones que se pierden en Spotify. Piratería[editar] Junto a la posibilidad de comprar descargas musicales se expandieron plataformas de descarga gratuita e ilegal
  • 125. de contenidos con copyright. De esta forma el mercado musical pasa a ser online. El modelo de Spotify legitima consumir y compartir contenido online sin la necesidad de descargarlo. Spotify ha reducido las descargas pirata de música. 25 Los no dispuestos a pagar por escuchar música tienen la opción de utilizar la versión gratuita (con algunas restricciones como anuncios de publicidad). Gracias a la publicidad incluida pueden pagar a los artistas, que no serían pagados mediante las descargas pirata. Controversias[editar] Algunas bandas musicales y artistas se han negado, en principio, a permitir que su música se añada al servicio de Spotify,26 aunque en estos casos la compañía firmó acuerdos con la mayoría de casas discográficas. El 28 de enero de 2009 Spotify anunció que se realizarán varios cambios en la oferta musical del programa, por las que se eliminarían algunas canciones de los artistas que no estuvieran de acuerdo con aparecer allí y se añadirían restricciones regionales a algunos temas.27 Spotify ha concebido una formula de pago a los artistas en función de la cantidad de “streamings” de su música sobre la cantidad total de “streamings”. Lo cual es equivalente a entre 7 y 10 céntimos por streaming. 28. Comparando a 1,40$ que pueden ganar por cada CD, es flagrante que los streaming reducen las ganancias de los artistas. Con respecto a la oferta del catálogo, el representante de Spotify en España, Lutz Emmerich, indicó en una entrevista que la compañía no corre ningún riesgo y que el catálogo musical se ampliará mediante la firma de acuerdos con todas las discográficas posibles por lo
  • 126. que la tendencia será a ampliar catálogo y no a reducirlo.29 Uso de datos[editar] En Spotify cada usuario tiene una playlist personal “Tu descubrimiento semanal” en función de la música escuchada recientemente que funciona mediante algoritmos capaces de relacionar los gustos personales a los de otros. Lo cual puede conllevar al efecto burbuja, en el cual la música es automáticamente elegida para nosotros y nos impide descubrir más allá. Por otro lado la recopilación de datos sobre lo que escucha cada usuario puede ser utilizado para estrategias de marketing (por ejemplo para atraer a determinados grupos)30. Se desconocen estos algoritmos y el uso que hace Spotify de dichos datos a pesar de que los sociólogos escritores de “Spotify Teardown: Inside the Black Box of Streaming Music” hayan intentado entenderlos. El uso del Big data es algo que preocupa a muchos usuarios de productos en la red hoy en día. Que es una Base de Datos de una pagina Web Base de Datos Web Base de Datos Web es una herramienta que organiza y administra la información de forma sencilla a través de una interfaz Web. ¿Para qué sirve? Para organizar la información de manera fácil y sencilla dentro de un entorno colaborativo. Para mantener las bases de datos integradas a las
  • 127. herramientas de segmentación y envíos masivos de comunicaciones. Para controlar el flujo de información que los usuarios pueden manejar a través de grupos de visualización. Para generar listas o reportes que puedan ser utilizados en las estrategias comunicacionales de la empresa o en la emisión de resultados y métricas para la toma de decisiones. Para llevar un control de las actividades realizadas en la base de datos a través del Log de Auditoría. Para optimizar procesos comunicacionales. Beneficios Los beneficios de la herramienta serán clasificadas en 4 grandes áreas: Fácil de usar: Está relacionado con lo amigable y lo intuitivo de las interfaces de la aplicación para: Realizar la carga de datos en las tablas de la base de datos; el uso de las herramientas de búsquedas y segmentación y la posibilidad de generar aplicaciones para acceder rápidamente a la información contenida en la base de datos. Configurable: La flexibilidad y facilidad para realizar las configuraciones en las bases de datos permiten al usuario: Crear un campo nuevo en la base de datos, establecer relaciones entre bases de datos y seleccionar unos tipos de datos que han sido discretizados para que
  • 128. el usuario no necesite desarrollar ninguno. Además, la exportación e importación de datos no necesita de una configuración detallada debido a que el sistema guía al usuario en el momento de configurar cualquiera de los procesos mencionados. El manejo de la permisología, la categorización y la gestión de plantillas forman parte del proceso de configuración de las bases de datos por lo que su ejecución mantiene la premisa de la facilidad expresada anteriormente. Integrable La integración del sistema de bases de datos se puede realizar tanto con sistemas externos como con otros módulos de la herramienta, a través de servicios web que son invisibles al usuario. Conectada El manejo de la información involucra la unicidad de registros de la Base de Datos y la posibilidad de revisión y consulta de la data en tiempo real, debido a la posibilidad de automatizar plataformas de comunicación. Características Ordena la información en campos y registros. Tiene la capacidad de hacer segmentaciones de la base de datos. Puede hacer búsquedas simples o avanzadas. Importa y exporta información desde y hacia otros programas. Tiene indicadores gráficos que hacen más fácil el
  • 129. análisis de la data. Posee la opción de generar aplicaciones que faciliten el acceso a la base de datos. Crea grupos de visualización para restringir la vista y la edición de campos específicos de una base de datos. Configura equipos de trabajo para controlar el acceso de otros usuarios a la información contenida en la base de datos. Configura tipos de datos para la generación de los campos en base a las necesidades de la empresa. Conexión desde otros sistemas a través de WebServices. Tiene una interfaz que guía paso a paso al usuario. Posibilidad de acceder a los historiales de las herramientas de Email, SMS y Llamadas para poder realizar búsquedas y segmentaciones a partir de las bases de datos que hayan sido utilizadas para el envío de mensajes a través de estos medios. Preguntas frecuentes ¿Qué es la categoría de una base de datos? Es el lugar donde se guardan las bases de datos con la finalidad de organizarlas y facilitar su búsqueda. ¿Qué es el código de una base de datos? Es un texto escrito en el lenguaje de programación, que identifica y diferencia a una base de datos de otra. Además, este código a diferencia del nombre, debe ser único para que el sistema pueda reconocer la base de datos a la cual pertenece.
  • 130. ¿Qué es una plantilla? Conjunto predefinido de formas prediseñadas que establece la estructura necesaria para publicar contenido rápidamente. Página pre-desarrollada que es empleada para crear nuevas páginas con el mismo diseño, patrón o estilo. Perfiles de usuario Los siguientes perfiles de usuario que pueden utilizar la aplicación son: Usuario Permisos asignados: Acceso a Base de datos Administrador Permisos asignados: Acceso a Base de datos Administrar Base de datos Súper Administrador Permisos asignados: Acceso a Base de datos Administrar Base de datos Acceso a todas las BD  Aplicaciones de base de datos en la Web (Nancy Chávez) ¿Cuáles son las aplicaciones más importantes de una
  • 131. base de datos en la WEB? ·        Comercio electrónico. ·        Servicios al cliente (por ejemplo seguimiento de paquetes postales) ·        Servicios financieros. ·        Búsqueda de información. ·        Acceso remoto a bases de datos. ·        Bases de datos compartidas (intranets) ·        Creación de documentos HTML personalizados (sobre la marcha) ·        Distribución multimedia. ·        Seguimiento de visitantes. ¿En las bases de datos debe restringirse el acceso a la información? Sí, dentro de las Bases de Datos pueden existir informaciones restringidas según autorizaciones. Los Usuarios de estas bases de datos a través de Internet se conectan a la red y abren el Navegador en la URL determinada; introducen su nombre de Usuario y clave; acceden a un menú o índice principal donde pueden navegar por las distintas partes; Pueden hacer consultas, adiciones, actualizaciones o borrados, según el grado de autorización. Estos Datos son actualizados en tiempo real y están al segundo a disposición de los otros Usuarios concurrentes y posteriores. La identificación del usuario es una de las formas de
  • 132. guardar la seguridad.  Las identidades y permisos de usuarios están definidas en los archivos de control de acceso.  Pero la seguridad e integridad total de los datos puede conservarse permitiendo el acceso a distintos campos de una base de datos, solamente a usuarios autorizados para ello.  En este sentido los datos pueden ser presentados a través del Web de una forma segura y con mayor impacto en todos los usuarios de la red mundial. Mencione ventajas de utilizar Base de Datos en la Web. La Web es un medio para localizar enviar / recibir información de diversos tipos, aún con las bases de datos. En el ámbito competitivo es esencial ver las ventajas que ésta vía electrónica proporciona para presentar la información reduciendo costo y almacenamiento de la información y aumentando la rapidez de difusión de la misma. Actualmente la Web permite acceder a bases de datos desde cualquier parte del mundo.  Estas ofrecen a través de la red un manejo dinámico y una gran flexibilidad de los datos,  como ventajas que no podrían obtenerse a través de otro medio informativo. Otra ventaja de utilizar la Web es que no hay restricciones en el Sistema Operativo que se debe usar, permitiendo la conexión entre sí de las páginas Web desplegadas en un Browser del Web que funciona en una plataforma, con servidores de bases de datos alojados en otra plataforma.  Además no hay necesidad de cambiar el formato o la estructura de la información dentro de las BD’s. ¿Qué es ASP y para qué sirve?
  • 133. Con la tecnología Active Service Pages (ASP) se puede crear un sitio activo que cambie cada semana, cada día o cada hora si usted lo desea.  Si se tiene una bases de datos de los productos y sus precios han cambiado solamente hay que introducir la nueva bases de datos en el servidor, y todas sus páginas estarán actualizadas. Una base de datos permite crear una parte del sitio Web restringido con clave de acceso.  Esto puede ser útil  si se quiere crear fichas de información para los clientes para los cuales no se tenga libre acceso, creando así su propia Extranet. Interfaces Web (Williams Solano)  ¿Qué es una Interfaz Web? Es aquella que contiene las especificaciones de la base de datos necesarias para traducir las solicitudes enviadas desde el cliente, a un formato que sea reconocido por dicha base, además contiene toda la información, estructura, variables y llamadas a funciones, necesarias para comunicarse con la Base de Datos.  ¿Qué directrices se deben seguir para el diseño de Interfaces Web? ·        Planteamiento General ·        Organización de la Información ·        Facilidad de navegación: Iconos y mapas sensibles ·        Agilidad en las tareas ·        Comodidad en la lectura
  • 134. ·        Consistencia ·        Accesibilidad ·        Evaluación del diseño. ¿Cuál es la estrategia más famosa para la creación de aplicaciones de interacción con el Web? Descargar aplicaciones o componentes funcionales que se ejecutarán dentro del browser. Con ellas se realizará un procesamiento complejo de lado del cliente, lo cual requiere un gran esfuerzo para crear las piezas de la aplicación. Estas estrategias poseen dos características principales: garantizan la seguridad tanto en los sistemas de distribución como en la comunicación que se establece en tales aplicaciones.  ¿Sobre que áreas gira el diseño de una aplicación Web? El diseño de una aplicación Web gira alrededor de tres áreas fundamentales: El diseño de la interfaz de usuario debe encontrar un justo equilibrio entre los tipos de  exploradores admitidos, la estética de la aplicación y su facilidad de uso. Al diseñar una interfaz para usar en Internet, es necesario tener en cuenta la cantidad de tiempo que una página tardará en descargarse a través de la conexión más lenta que piense usar.       Un diseño eficaz de la base de datos es crucial para garantizar un tiempo de respuesta rápido por parte del cliente. Para diseñar una base de datos adecuada, es necesario distribuir apropiadamente los datos entre la base de datos y el sistema de
  • 135. archivos, normalizar de forma razonable las tablas que no requieran combinaciones excesivas para responder a las consultas, crear índices suficientes para optimizar las consultas más frecuentes sin que se utilice una cantidad de espacio de disco excesiva y usar procedimientos almacenados para llevar a cabo operaciones de base de datos frecuentes o complejas. Para obtener una introducción a las cuestiones relacionadas con el diseño de bases de datos, consulte el apartado acerca de consideraciones relativas al diseño de bases de datos en el Kit de herramientas para el programador de Microsoft SQL Server.          Elaborar un plan de acceso a la base de datos en el que se especifique qué páginas HTML requieren contenido de base de datos puede ayudar al diseñador a determinar qué páginas deben generarse de forma totalmente dinámica mediante secuencias de comandos de servidor y qué páginas pueden crearse pseudo dinámicamente (mediante herramientas como el Ayudante de Web de SQL Server) para generar páginas estáticas de acuerdo con una programación predeterminada.  ¿Qué es una Interfaz de programación de aplicaciones API? Es un conjunto de rutinas, protocolos y herramientas para construir aplicaciones de interfaz. API está diseñado especialmente para los programadores, ya que garantiza que todos los programas que utilizan API, tendrán interfaces similares. Asimismo, esto le facilita al usuario aprender la lógica de nuevos programas.
  • 136. Tecnologías para la integración de bases datos web (José Guerrero)  ¿Cuál es la tecnología para la integración de base de datos web que se ejecuta en tiempo real en un servidor web en respuesta de un programa cliente?. CGI (Common Gateway Interface)  ¿Qué significa las siglas SQL? Structured Query Language (Lenguaje de Consulta Estructurado)  Nombre los lenguajes de programación con los cuales un programa CGI puede ser escrito: C/C++, Pascal, Perl, TCL, Fortran, Visual Basic, AppleScript, JavaScript y Delphi. ¿Qué es JDBC? Es un API de Java, la cual permite conectar los programas escritos en Java con la  base de datos.  ¿Tecnología que permite conectividad abierta de base de datos? ODBC ¿Qué es JavaScript? Es un lenguaje de scripts compacto basado en objetos y orientado a eventos, el cual permite la realización de aplicaciones de propósito general a través de la WWW y aunque no esta diseñado para el desarrollo de grandes aplicaciones es suficiente para la implementación de aplicaciones WWW completas o interfaces WWW hacia
  • 137. a otras más complejas. El JavaScript depende únicamente del servidor web.  Establezca las diferencias entre Java  y JavaScript. JavaScript:  ·        Interpretado (no compilado) en cliente. ·        Basado en objetos. Usan objetos, pero no clases ni herencia. ·        Código integrado en el código HTML. ·        Enlazado Dinámico.  Java: Compilado en servidor antes de la ejecución del cliente. Programación orientado a objetos. Los applets constan de clases objeto con herencia. Applets diferenciados del código HTML. Enlazados estáticos. ¿Qué es el modelo de tres capas del API  JDBC? En este modelo, las instrucciones son enviadas a una capa intermedia que se encarga de enviar las sentencias SQL a la Base de Datos. El manejador  de Base de Datos procesa las sentencias y retorna los resultados a la capa intermedia que se encarga de enviarlos al usuario.  ¿Qué es ODBC? Es un tipo de arquitectura con la cual los datos existentes son independientes de la plataforma o del
  • 138. formato. Lenguajes para el manejo de base de datos en la web (Marlon García)  ¿Qué es el XML? Es el estándar de Extensible Markup Language. XML no es más que un conjunto de reglas para definir etiquetas semánticas que nos organizan un documento en diferentes partes. XML es un metalenguaje que define la sintaxis utilizada para definir otros lenguajes de etiquetas estructurados. ¿Qué es el Perl? PERL significa Practical Extraction and Report Language, algo así como lenguaje práctico de extracción y de informes.  PERL es un lenguaje interpretado, aunque en realidad, el intérprete de PERL, como todos los intérpretes modernos, compila los programas antes de ejecutarlos. Por eso se habla de scripts, y no de programas, concepto referido principalmente a programas compilados al lenguaje máquina nativo del ordenador y sistema operativo en el que se ejecuta.  ¿Qué es el HTML? El HTML (HipertText Markup Language) o Lenguaje de enlaces hipertexto es un sistema  que se encarga de definir tipos de documentos estructurados y lenguajes de marcas para representar esos mismos documentos. El término HTML se suele referir a ambas cosas, tanto al tipo de documento como al lenguaje de marcas.  ¿Cómo se procesa un programa Perl?
  • 139. Perl procesa el programa en varias fases: 1. Examinar la línea para buscar swiches. 2. Ejecución previa del programa. 3. Compilación. 4. Ejecución carnuda (ejecuta el código intermedio, hasta encontrar exit o hasta que se acabe el archivo). 5. Ejecución final.  ¿Qué es un lenguaje de marcas? Las marcas son códigos que indican a un programa cómo debe tratar su contenido y así, si se desea que un texto aparezca con un formato determinado, dicho texto debe ir delimitado por la correspondiente marca que indique como debe ser mostrado en pantalla o impreso. Y lo mismo ocurre con todas las demás características de cualquier texto. Ejemplos pueden tenerlos en mente los usuarios de WordPerfect. Nombre algunas aplicaciones del XLM. Office, Oracle, Explorer Seguridad de Componentes que manejan Base de Datos (Frandy Alfonso)  ¿Qué ofrece un corta fuego como medio de seguridad para la Base de datos? ·        Aislamiento. La misión de un cortafuegos es aislar su red privada de Internet, restringiendo el acceso hacia/desde su red sólo a ciertos servicios, a la vez que analiza todo el tráfico que pasa a través de él.
  • 140. ·        Cuello de botella. El cortafuegos se constituye en un cuello de botella, que mantiene a los atacantes y peligros alejados de la red a proteger; prohíbe en los dos sentidos servicios susceptibles a ataques; y proporciona protección ante algunos tipos de ataques basados en el enrutamiento de paquetes. ·        Auditoria y registro de uso. El cortafuegos constituye un buen lugar donde recopilar información sobre el uso de la red. En su calidad de punto único de acceso, el cortafuegos puede registrar toda la actividad entre la red exterior y la interior. ·        Seguridad de contenidos. Existen otras amenazas como los virus y el contenido activo malicioso, frente a las cuales los mejores cortafuegos ofrecen una protección limitada. La inspección antivirus del material transmitido a través de servicios como el correo electrónico, la Web o FTP es una característica incorporada por un número cada vez mayor de cortafuegos.  Tipos de seguridad de bases de Datos. Los tipos de seguridad que son necesarios en un desarrollo informático, estos son: ·        Seguridad lógica: este nivel de seguridad implica mantener la integridad y consistencia de los datos en la base de datos cuando se realicen las operaciones de altas, bajas y modificaciones en la base de datos del sistema. ·        Seguridad física: este nivel de seguridad implica mantener la integridad física de los archivos donde se almacena la base de datos y el log de transacciones, en
  • 141. el disco del servidor. Será implementado con procedimientos de resguardo, back-up, y restauración. Dichos procedimientos serán realizados periódicamente por el administrador de la aplicación. ·        Seguridad de acceso: este nivel de seguridad implica restringir el acceso a los datos por parte de usuarios no autorizados. Será implementado tanto en la base de datos como en la aplicación. La administración de la seguridad se realiza con un módulo especialmente diseñado para esa tarea.  ¿Cuáles son las técnicas de copia de seguridad que utilizan las Bases de Datos en la Web? En general, hay tres técnicas de copia de seguridad y son: Copia de seguridad sin conexión (en frío): La base de datos se cierra limpiamente y se pone fuera de conexión. El software de copia de seguridad independiente copia entonces los archivos en los dispositivos de copia de seguridad. Cuando la copia finaliza, la base de datos se puede poner en conexión. Los datos dejan de estar disponibles desde el momento en que la base de datos comienza a cerrarse hasta que se pone de nuevo en conexión. Copia de seguridad en conexión (en caliente): El sistema de administración de la base de datos se está ejecutando y la base de datos está en conexión. Sin embargo, no se está teniendo acceso a la base de datos propiamente dicha y, por lo tanto, no está disponible para que la usen las aplicaciones durante la copia de
  • 142. seguridad. Copia de seguridad en conexión activa: La base de datos está en conexión y se usa activamente. La copia de seguridad se ejecuta durante el procesamiento normal de transacciones. No se requiere ninguna pausa para la copia de seguridad.  ¿Cuáles son las medidas que se deben tomar para evitar el acceso no autorizado a la base de datos? Para proteger el acceso a las tablas, puede elegir de entre las siguientes opciones: ·  Cambiar el perfil de usuario que emplea para acceder a un recurso por otro perfil de usuario que ya tenga autorización sobre las tablas. ·  Añadir autorización para acceder a las tablas al perfil de usuario utilizado. ·  Utilizar una combinación formada por los dos métodos anteriores.  ¿Qué es una “puerta trasera” en base de datos? Una puerta trasera es una forma no documentada de ganar acceso a un sistema informático, lo que normalmente implica usar una contraseña secreta. El fallo permite a un posible atacante cambiar la información de la base de datos y usar programas de todo tipo, lo que podría causar resultados desastrosos para el sistema.  ¿A qué hace referencia seguridad de componentes en base de datos?
  • 143. Se refiere a la protección de datos contra el acceso no autorizado. Estas base de datos, programas y datos se pueden asegurar entregando números de identificación y contraseñas a los usuarios autorizados Arquitectura de base de datos para la web – Navegador y Servidor – Navegador y Servidor, Incorpora una Base de Datos, Una típica transacción Web con base de datos. Por ejemplo una petición HTTP, listado de libros de un autor en particular. Servidores Web con motor PHP están en un servidor y en otro servidor la Base de Datos MYSQL, Ideal esta disposición de servidores. Glosario Categoría: Es el lugar donde se guardan las bases de datos con la finalidad de organizarlas y facilitar su búsqueda. Código de una base de datos: Es un texto escrito en el lenguaje de programación, que identifica y diferencia a una base de datos de otra. Además, este código a diferencia del nombre, debe ser único para que el sistema pueda reconocer la base de datos a la cual pertenece. Plantilla o Template: Conjunto predefinido de formas prediseñadas que establece la estructura necesaria para publicar contenido rápidamente. Página pre- desarrollada que es empleada para crear nuevas
  • 144. páginas con el mismo diseño, patrón o estilo. El Common Gateway Interface (CGI)Actualmente, ésta es la solución que más se está utilizando para la creación de interfaces Web/DBMS. Fue probada por primera vez en el servidor NCSA.Se ha comprobado que si el Servidor Web recibe un URL con una llave, para devolver un documento HTML como respuesta, tendrá que cargar el servicio (programa) que le indique las variables de ambiente y de la forma HTML. La mayoría de las veces dicha llave es el “cgi- bin”. Entre las ventajas de la programación CGI, se tiene su sencillez, ya que es muy fácil de entender, además de ser un lenguaje de programación independiente, ya que los escritos CGI pueden elaborarse en varios lenguajes. También es un estándar para usarse en todos los servidores Web, y funcionar bajo una arquitectura independiente, ya que ha sido creado para trabajar con cualquier arquitectura de servidor Web. Como la aplicación CGI se encuentra funcionando de forma independiente, no pone en peligro al servidor, en cuanto al cumplimiento de todas las tareas que éste se encuentre realizando, o al acceso del estado interno del mismo. Pero el CGI presenta cierta desventaja en su eficiencia, debido a que el Servidor Web tiene que cargar el programa CGI y conectar y desconectar con la base de datos cada vez que se recibe una requisición. Además, no existe un registro del estado del servidor, sino que todo hay que hacerlo
  • 145. manualmente. Recopilado por: Yaney Aponte Fuente: http://www.monografias.com/trabajos24/bases-de- datos/bases-de-datos.shtml http://www.danaconnect.com/wiki/index.php /Base_de_datos_web http://www.mailxmail.com/curso-php-mysql- sql-8/arquitectura-base-datos-web http://www.uca.edu.sv/investigacion/bdweb /tecnolog.html Una base de datos es un conjunto de datos pertenecientes a un mismo contexto y almacenados sistemáticamente para su posterior uso. En este sentido; una biblioteca puede considerarse una base de datos compuesta en su mayoría por documentos y textos impresos en papel e indexados para su consulta. Actualmente, y debido al desarrollo tecnológico de campos como la informática y la electrónica, la mayoría de las bases de datos están en formato digital, siendo este un componente electrónico, por tanto se ha desarrollado y se ofrece un amplio rango de soluciones al problema del almacenamiento de datos. Hay programas denominados sistemas gestores de bases de datos, abreviado SGBD (del inglés Database Management System o DBMS), que permiten almacenar y posteriormente acceder a los datos de forma rápida y
  • 146. estructurada. Las propiedades de estos DBMS, así como su utilización y administración, se estudian dentro del ámbito de la informática. Las aplicaciones más usuales son para la gestión de empresas e instituciones públicas; También son ampliamente utilizadas en entornos científicos con el objeto de almacenar la información experimental. Aunque las bases de datos pueden contener muchos tipos de datos, algunos de ellos se encuentran mutuamente protegidos por las leyes de varios países. Por ejemplo en España, los datos personales se encuentran protegidos por la Ley Orgánica de Protección de Datos de Carácter Personal (LOPD), en México por la Ley Federal de Transparencia y Acceso a la Información Pública Gubernamental y en Argentina la Ley de Protección de Datos Personales.1 En Argentina el Código Penal sanciona ciertas conductas relacionadas con una base de datos: acceder ilegítimamente a un banco de datos personales, proporcionar o revelar información registrada en un archivo o en un banco de datos personales cuyo secreto estuviere obligado a guardar por ley o insertar o hacer insertar datos en un archivo de datos personales. Si el autor es funcionario público, sufre además pena de inhabilitación especial.   Clasificación de bases de datos[editar] Las bases de datos pueden clasificarse de varias maneras, de acuerdo al contexto que se esté manejando, la utilidad de las mismas o las necesidades que satisfagan.
  • 147. Según la variabilidad de la base de datos[editar]Bases de datos estáticas[editar] Son bases de datos únicamente de lectura, utilizadas principalmente para almacenar datos históricos que posteriormente se pueden utilizar para estudiar el comportamiento de un conjunto de datos a través del tiempo, realizar proyecciones, tomar decisiones y realizar análisis de datos para inteligencia empresarial. Bases de datos dinámicas[editar] Son bases de datos donde la información almacenada se modifica con el tiempo, permitiendo operaciones como actualización, borrado y edición de datos, además de las operaciones fundamentales de consulta. Un ejemplo, puede ser la base de datos utilizada en un sistema de información de un supermercado. Según el contenido[editar]Bases de datos bibliográficas[editar] Solo contienen una subrogante (representante) de la fuente primaria, que permite localizarla. Un registro típico de una base de datos bibliográfica contiene información sobre el autor, fecha de publicación, editorial, título, edición, de una determinada publicación, etc. Puede contener un resumen o extracto de la publicación original, pero nunca el texto completo, porque si no, estaríamos en presencia de una base de datos a texto completo (o de fuentes primarias —ver más abajo). Como su nombre lo indica, el contenido son cifras o números. Por ejemplo, una colección de resultados de análisis de laboratorio, entre otras. Bases de datos de texto completo[editar]
  • 148. Almacenan las fuentes primarias, como por ejemplo, todo el contenido de todas las ediciones de una colección de revistas científicas. Directorios[editar] Un ejemplo son las guías telefónicas en formato electrónico. Estos directorios se pueden clasificar en dos grandes tipos dependiendo de si son personales o empresariales (llamadas páginas blancas o amarillas respectivamente). Los directorios empresariales hay de tres tipos: Tienen nombre de la empresa y dirección1. Contienen teléfono y los más avanzado contienen correo electrónico 2. Contienen datos como facturación o número de empleados además de códigos nacionales que ayudan a su distinción. 3. Los directorios personales solo hay de un tipo, ya que leyes como la LOPD en España protege la privacidad de los usuarios pertenecientes al directorio. La búsqueda inversa está prohibida en los directorios personales (a partir de un número de teléfono saber el titular de la línea). Bases de datos o "bibliotecas" de información química o biológica[editar] Son bases de datos que almacenan diferentes tipos de información proveniente de la química, las ciencias de la
  • 149. vida o médicas. Se pueden considerar en varios subtipos: Las que almacenan secuencias de nucleótidos o proteínas. Las bases de datos de rutas metabólicas. Bases de datos de estructura, comprende los registros de datos experimentales sobre estructuras 3D de biomoléculas. Bases de datos clínicas. Bases de datos bibliográficas (biológicas, químicas, médicas y de otros campos): PubChem, Medline, EBSCOhost. Modelos de bases de datos[editar] Además de la clasificación por la función de las bases de datos, estas también se pueden clasificar de acuerdo a su modelo de administración de datos. Un modelo de datos es básicamente una "descripción" de algo conocido como contenedor de datos (algo en donde se guardan los datos), así como de los métodos para almacenar y recuperar datos de esos contenedores. Los modelos de datos no son cosas físicas: son abstracciones que permiten la implementación de un sistema eficiente de base de datos; por lo general se refieren a algoritmos, y conceptos matemáticos. Algunos modelos con frecuencia utilizados en las bases de datos: Bases de datos jerárquicas[editar]
  • 150. En este modelo los datos se organizan en forma de árbol invertido (algunos dicen raíz), en donde un nodo padre de información puede tener varios hijos. El nodo que no tiene padres es llamado raíz, y a los nodos que no tienen hijos se los conoce como hojas. Las bases de datos jerárquicas son especialmente útiles en el caso de aplicaciones que manejan un gran volumen de información y datos muy compartidos permitiendo crear estructuras estables y de gran rendimiento. Una de las principales limitaciones de este modelo es su incapacidad de representar eficientemente la redundancia de datos. Base de datos de red[editar] Este es un modelo ligeramente distinto del jerárquico; su diferencia fundamental es la modificación del concepto de nodo: se permite que un mismo nodo tenga varios padres (posibilidad no permitida en el modelo jerárquico). Fue una gran mejora con respecto al modelo jerárquico, ya que ofrecía una solución eficiente al problema de redundancia de datos; pero, aun así, la dificultad que significa administrar la información en una base de datos de red ha significado que sea un modelo utilizado en su mayoría por programadores más que por usuarios finales. Bases de datos transaccionales[editar] Son bases de datos cuyo único fin es el envío y recepción de datos a grandes velocidades, estas bases
  • 151. son muy poco comunes y están dirigidas por lo general al entorno de análisis de calidad, datos de producción e industrial, es importante entender que su fin único es recolectar y recuperar los datos a la mayor velocidad posible, por lo tanto la redundancia y duplicación de información no es un problema como con las demás bases de datos, por lo general para poderlas aprovechar al máximo permiten algún tipo de conectividad a bases de datos relacionales. Un ejemplo habitual de transacción es el traspaso de una cantidad de dinero entre cuentas bancarias. Normalmente se realiza mediante dos operaciones distintas, una en la que se debita el saldo de la cuenta origen y otra en la que acreditamos el saldo de la cuenta destino. Para garantizar la atomicidad del sistema (es decir, para que no aparezca o desaparezca dinero), las dos operaciones deben ser atómicas, es decir, el sistema debe garantizar que, bajo cualquier circunstancia (incluso una caída del sistema), el resultado final es que, o bien se han realizado las dos operaciones, o bien no se ha realizado ninguna. Bases de datos relacionales[editar] Este es el modelo utilizado en la actualidad para representar problemas reales y administrar datos dinámicamente. Tras ser postulados sus fundamentos en 1970 por Edgar Frank Codd,2 de los laboratorios IBM en San José (California), no tardó en consolidarse como un nuevo paradigma en los modelos de base de datos. Su idea fundamental es el uso de "relaciones". Estas relaciones podrían considerarse en forma lógica como conjuntos de datos llamados "tuplas". Pese a que esta es la teoría de las bases de datos relacionales creadas
  • 152. por Codd, la mayoría de las veces se conceptualiza de una manera más fácil de imaginar. Esto es pensando en cada relación como si fuese una tabla que está compuesta por registros (las filas de una tabla), que representarían las tuplas, y campos (las columnas de una tabla). En este modelo, el lugar y la forma en que se almacenen los datos no tienen relevancia (a diferencia de otros modelos como el jerárquico y el de red). Esto tiene la considerable ventaja de que es más fácil de entender y de utilizar para un usuario esporádico de la base de datos. La información puede ser recuperada o almacenada mediante "consultas" que ofrecen una amplia flexibilidad y poder para administrar la información. El lenguaje más habitual para construir las consultas a bases de datos relacionales es SQL, Structured Query Language o Lenguaje Estructurado de Consultas, un estándar implementado por los principales motores o sistemas de gestión de bases de datos relacionales. Durante su diseño, una base de datos relacional pasa por un proceso al que se le conoce como normalización de una base de datos. Bases de datos multidimensionales[editar] Son bases de datos ideadas para desarrollar aplicaciones muy concretas, como creación de Cubos OLAP. Básicamente no se diferencian demasiado de las bases de datos relacionales (una tabla en una base de datos relacional podría serlo también en una base de datos multidimensional), la diferencia está más bien a nivel conceptual; en las bases de datos
  • 153. multidimensionales los campos o atributos de una tabla pueden ser de dos tipos, o bien representan dimensiones de la tabla, o bien representan métricas que se desean aprender. Bases de datos orientadas a objetos[editar] Este modelo, bastante reciente, y propio de los modelos informáticos orientados a objetos, trata de almacenar en la base de datos los objetos completos (estado y comportamiento). Una base de datos orientada a objetos es una base de datos que incorpora todos los conceptos importantes del paradigma de objetos: Encapsulación - Propiedad que permite ocultar la información al resto de los objetos, impidiendo así accesos incorrectos o conflictos. Herencia - Propiedad a través de la cual los objetos heredan comportamiento dentro de una jerarquía de clases. Polimorfismo - Propiedad de una operación mediante la cual puede ser aplicada a distintos tipos de objetos. En bases de datos orientadas a objetos, los usuarios pueden definir operaciones sobre los datos como parte de la definición de la base de datos. Una operación (llamada función) se especifica en dos partes. La interfaz (o signatura) de una operación incluye el nombre de la operación y los tipos de datos de sus argumentos (o parámetros). La implementación (o método) de la operación se especifica separadamente y puede modificarse sin afectar la interfaz. Los programas
  • 154. de aplicación de los usuarios pueden operar sobre los datos invocando a dichas operaciones a través de sus nombres y argumentos, sea cual sea la forma en la que se han implementado. Esto podría denominarse independencia entre programas y operaciones. SQL:2003, es el estándar de SQL92 ampliado, soporta los conceptos orientados a objetos y mantiene la compatibilidad con SQL92. Bases de datos documentales[editar] Permiten la indexación a texto completo, y en líneas generales realizar búsquedas más potentes, sirven para almacenar grandes volúmenes de información de antecedentes históricos. Tesaurus es un sistema de índices optimizado para este tipo de bases de datos. Bases de datos deductivas[editar] Un sistema de base de datos deductiva, es un sistema de base de datos pero con la diferencia de que permite hacer deducciones a través de inferencias. Se basa principalmente en reglas y hechos que son almacenados en la base de datos. Las bases de datos deductivas son también llamadas bases de datos lógicas, a raíz de que se basa en lógica matemática. Este tipo de base de datos surge debido a las limitaciones de la Base de Datos Relacional de responder a consultas recursivas y de deducir relaciones indirectas de los datos almacenados en la base de datos. Lenguaje[editar] Utiliza un subconjunto del lenguaje Prolog llamado Datalog el cual es declarativo y permite al ordenador
  • 155. hacer deducciones para contestar a consultas basándose en los hechos y reglas almacenados. Ventajas[editar] Uso de reglas lógicas para expresar las consultas. Permite responder consultas recursivas. Cuenta con negaciones estratificadas Capacidad de obtener nueva información a través de la ya almacenada en la base de datos mediante inferencia. Uso de algoritmos que optimizan las consultas. Soporta objetos y conjuntos complejos. Fases[editar] Fase de Interrogación: se encarga de buscar en la base de datos informaciones deducibles implícitas. Las reglas de esta fase se denominan reglas de derivación. Fase de Modificación: se encarga de añadir a la base de datos nuevas informaciones deducibles. Las reglas de esta fase se denominan reglas de generación. Interpretación[editar] Encontramos dos teorías de interpretación de las bases de datos deductiva por lo cual consideramos las reglas y los hechos como axiomas. Los hechos son axiomas base que se consideran como verdaderos y no contienen variables. Las reglas son axiomas deductivos ya que se utilizan para deducir nuevos hechos. Teoría de Modelos: una interpretación es llamada
  • 156. modelo cuando para un conjunto específico de reglas, estas se cumplen siempre para esa interpretación. Consiste en asignar a un predicado todas las combinaciones de valores y argumentos de un dominio de valores constantes dado. A continuación se debe verificar si ese predicado es verdadero o falso. Mecanismos[editar] Existen dos mecanismos de inferencia: Ascendente: donde se parte de los hechos y se obtiene nuevos aplicando reglas de inferencia. Descendente: donde se parte del predicado (objetivo de la consulta realizada) e intenta encontrar similitudes entre las variables que nos lleven a hechos correctos almacenados en la base de datos. Sistema de Gestión de bases de datos distribuida (SGBD)[editar] La base de datos y el software SGBD pueden estar distribuidos en múltiples sitios conectados por una red. Hay de dos tipos: 1. Distribuidos homogéneos: utilizan el mismo SGBD en múltiples sitios. 2. Distribuidos heterogéneos: Da lugar a los SGBD federados o sistemas multibase de datos en los que los SGBD participantes tienen cierto grado de autonomía local y tienen acceso a varias bases de datos autónomas preexistentes almacenados en los SGBD, muchos de estos emplean una arquitectura cliente-
  • 157. servidor. Estas surgen debido a la existencia física de organismos descentralizados. Esto les da la capacidad de unir las bases de datos de cada localidad y acceder así a distintas universidades, sucursales de tiendas, etc. Consulta a base de datos[editar] Una consulta es el método para acceder a la información en las bases de datos. Con las consultas se puede modificar, borrar, mostrar y agregar datos en una base de datos, también pueden utilizarse como origen de registro para formularios. Para esto se utiliza un Lenguaje de consulta. Las consultas a la base de datos se realizan a través de un Lenguaje de manipulación de datos, el lenguaje de consultas a base de datos más utilizado es SQL. El escritorio, que es la pantalla que ve después de iniciar la sesión en Windows, es una de las características más importantes del equipo. El escritorio puede contener accesos directos a los programas, documentos, carpetas e, incluso, impresoras que utilice con más frecuencia. En el escritorio también puede haber contenido activo, como un canal información bursátil o de noticias.
  • 158. La barra de tareas es la parte interior que  recorer el  escritorio de la pantalla completo.  y espicado a el error el creador  parte principales de la barra de tareas son el boton de inicio, los icono anclado, la barras de ibiomas. Los iconos son pequeños símbolos con un nombre que los identifica y que representan carpetas, documentos y aplicaciones. Seleccionando dichos iconos es posible llegar al elemento real que se ha seleccionado.
  • 159. El boton de inicio es el boton que esta lado izquerdo de la barra de tareas el escritorio El menú Inicio fue una lista personalizada de programas para el usuario para poner en marcha, así como una lista de documentos abiertos La ventanas es un área visual, normalmente de forma rectangular, que contiene algún tipo de interfaz de usuario, mostrando la salida y permitiendo la entrada de datos
  • 160. El panel de control de la interfaz gráfica de Windows que permite a los usuarios que vean y que manipulen ajustes y controles del sistema básico, tales como Agregar nuevo hardware, Agregar o quitar programas, Cuentas de usuario y opciones de accesibilidad Internet Explorer (anteriormente llamado Windows Internet Explorer y Microsoft Internet Explorer), y conocido comúnmente como IE, es un navegador web desarrollado por Microsoft para el sistema operativo Microsoft Windows desde 1995. Es el navegador web más utilizado de Internet desde 1999, con un pico máximo de cuota de utilización del 95% entre el 2002 y 2003. Sin embargo, dicha cuota de mercado ha disminuido paulatinamente con los años debido a una renovada competencia por parte de otros navegadores,
  • 161. logrando aproximadamente entre el 30% y 54% en 2012 Un archivo o fichero informático es un conjunto de bits que son almacenados en un dispositivo. Un archivo es identificado por un nombre y la descripción de la carpeta o directorio que lo contiene. A los archivos informáticos se les llama así porque son los equivalentes digitales de los archivos escritos en libros, tarjetas, libretas, papel o microfichas del entorno de oficina tradicional. Los archivos informáticos facilitan una manera de organizar los recursos usados para almacenar permanentemente datos en un sistema informático virtual
  • 162. AeroSnap es una sencilla utilidad para el escritorio basada en una nueva característica de Windows 7 con la cual podrás redimensionar a media pantalla, maximizar o minimizar las ventanas, tan solo arrastrandolas hacia los costados o hacia la parte superior o inferior del escritorio. Microsoft Word es el procesador de textos más conocido hoy en día y una parte imprescindible de Microsoft Office. Ya sea desde cero, o usando la multitud de plantillas de que dispone, Microsoft Word te ayudará a crear, editar y enriquecer textos con una gran selección de herramientas y contenido complementario.
  • 163. avast! es un software antivirus de la firma checa avast software. Cuenta con varias versiones, que cubren desde el usuario doméstico hasta el corporativo. Microsoft Excel es una aplicación distribuida por Microsoft Office para hojas de cálculo. Este programa es desarrollado y distribuido por Microsoft, y es utilizado normalmente en tareas financieras y contables. Microsoft Office Publisher) es la aplicación de autoedición o DTP (por DeskTop Publishing en inglés) de Microsoft Corporation. A menudo es considerado como un programa para principiantes o de «nivel de entrada» (entry level), que difiere del procesador de textos Microsoft Word en que se hace hincapié (que se refuerza) en el diseño y la maquetación de las páginas, más que en el proceso y corrección de textos Microsoft Access es un sistema de gestión de bases de datos incluido en el paquete de programas de Microsoft Office. Es igualmente un gestor de datos que recopila información relativa a un asunto o propósito particular, como el seguimiento de pedidos de clientes o el mantenimiento de una colección de música. Access es un programa informático en entornos de empresa, que permite la creación y gestión de bases de datos, así como su modificación, control y mantenimiento. Microsoft Office OneNote, o simplemente OneNote, es un producto de software gratuito desarrollado por Microsoft para facilitar la toma de notas, la recopilación de información, y la colaboración multiusuario. OneNote permite colocar notas en páginas de dos dimensiones y
  • 164. ofrece la posibilidad de agregar dibujos, diagramas, fotografías, elementos multimedia, audio, vídeo, e imágenes escaneadas. También permite crear una impresora virtual a fin de enviar archivos o documentos desde otros programas. Ofrece además el intercambio de notas a través del uso compartido de archivos o WebDAV. El producto fue lanzado en 2003 e inicialmente no estaba incluido en Microsoft Office. El teclado de la computadora es un dispositivo o periférico de entrada, en parte inspirado en el teclado de las máquinas de escribir, que utiliza una disposición de botones o teclas, para que actúen como palancas mecánicas o interruptores electrónicos que envían información a lacomputadora. Después de las tarjetas perforadas y las cintas de papel, la interacción a través de los teclados, al estilo teletipo, se convirtió en el principal dispositivo de entrada para los ordenadores. El teclado tiene aproximadamente entre 99 y 107 teclas, y está dividido en cuatro bloques: Bloque de funciones: va desde la tecla F1 a F12, en tres bloques de cuatro: de F1 a F4, de F5 a F8 y de F9 a F12. Funcionan de acuerdo al programa o 1.
  • 165. aplicación que esté abierto. Por ejemplo, en muchos programas al presionar la tecla F1 se accede a la ayuda asociada a ese programa. Además, a la izquierda de este bloque suele estar la tecla Esc. Bloque alfanumérico: está ubicado en la parte inferior del bloque de funciones, contiene los números arábigos del 1 al 0 y el alfabeto organizado como en una máquina de escribir, además de algunas teclas especiales, como por ejemplo Tab ↹ (tabulador),⇪ Bloq Mayús (Bloq Mayús), ⇧ Mayús (tecla Shift), Ctrl, ⊞ Win (tecla Windows), Alt, espaciador, Alt Gr, ↵ Entrar (tecla Enter, entrar o Intro). 2. Bloque especial: está ubicado a la derecha del bloque alfanumérico, contiene algunas teclas especiales como Impr Pant o PetSis,Bloq Despl, Pausa, Insert, Supr, Inicio, Fin, RePág, AvPág, y las flechas direccionales que permiten mover el punto de inserción en las cuatro direcciones (↑, ↓, ←, →). 3. Bloque numérico: está ubicado a la derecha del bloque especial, se activa al presionar la tecla Bloq Num, contiene los números arábigos organizados como en una calculadora con el fin de facilitar la digitación de cifras. Además, contiene el punto o coma decimal ., y los signos de las cuatro operaciones básicas: suma +, resta -, multiplicación * y división /; también contiene una tecla de Intro o ↵ Entrar. 4.
  • 166. Windows 8 es una versión de Microsoft Windows, línea de sistemas operativos desarrollada por Microsoft para su uso en computadoras personales, incluidas computadoras de escritorio en casa y de negocios,computadoras portátiles, netbooks, tabletas, servidores y centros multimedia. El principal cambio es la polémica decisión de eliminar Menú Inicio, existente desde Windows 95 como estándar de facto en cómo presentar aplicaciones en interfaces gráficas. El 2 de abril de 2014, Microsoft reconoció el error de la eliminación del menú de inicio y anunció que lo volverían a implementar en la siguiente versión de Windows,3 el cual llegó en el 2015.4 Añade soporte para microprocesadores ARM, además de los microprocesadores tradicionales x86 de Intel y AMD. Su interfaz de usuarioha sido modificada para hacerla más adecuada para su uso con pantallas táctiles, además de los tradicionales ratón y teclado. El efecto Aero Glass de su predecesor Windows 7 no está presente en este sistema operativo, siendo reemplazado por nuevos efectos planos para ventanas y botones con un color simple. El 29 de julio de 2015, Microsoft presentó su sucesor, Windows 10, orientado a integrar de una mejor forma el sistema operativo en todos los dispositivos, desde ordenadores, tabletas y hasta teléfonos inteligentes, destacando el regreso de uno de sus elementos más característicos, el desaparecido Menú Inicio.5 6 7
  • 167. Windows 10 es el último sistema operativo desarrollado por Microsoftcomo parte de la familia de sistemas operativos Windows NT.5 Fue dado a conocer oficialmente en septiembre de 2014, seguido por una breve presentación de demostración en el Build 2014. Entró en fasebeta de prueba en octubre de 2014 y fue lanzado al público en general el 29 de julio de 2015.6 Para animar su adopción, Microsoft anunció su disponibilidad gratuita por un año desde su fecha de lanzamiento, para los usuarios que cuenten con copias genuinas de Windows 7 Service Pack 1 o Windows 8.1 Update. En junio de 2015 se habilitó una herramienta que permite reservar esta actualización, dicha herramienta notifica a cada usuario el momento en el que estará lista la descarga de la actualización para su dispositivo.7 Los participantes del programaWindows Insider pueden recibir una licencia de Windows 10, pero con ciertas condiciones.8 Esta edición introdujo una arquitectura de aplicaciones «universales». Desarrolladas con la interfaz Continuum, estas aplicaciones pueden ser diseñadas para ejecutarse en todas las familias de productos deMicrosoft con un código casi idéntico (incluyendo computadoras personales, tabletas, teléfonos inteligentes, sistemas embebidos, Xbox One, Surface Hub y HoloLens). La interfaz de usuario fue revisado para realizar transiciones entre una interfaz orientada al ratón y una interfaz orientada a la pantalla táctil basadas
  • 168. en dispositivos de entrada disponibles (particularmente en tablets). Ambas interfaces incluyen unmenú Inicio actualizado que comprende un diseño similar a Windows 7con las baldosas de Windows 8. También se introduce la Vista de Tareas, un sistema de escritorio virtual, el navegador web Microsoft Edge y otras aplicaciones nuevas o actualizadas, un soporte integrado para iniciar sesión a través de huella digital o reconocimiento facial llamado Windows Hello, nuevas características de seguridad para entornos empresariales, DirectX 12 y WDDM 2.0 para mejorar las capacidades gráficas del sistema operativo para los videojuegos. Microsoft describió a Windows 10 tanto un sistema operativo como un servicio que puede recibir actualizaciones en curso para sus características y funcionalidades, además con la habilidad en los entornos empresariales para recibir actualizaciones no críticas en un ritmo más lento, o un soporte a largo plazo que solo recibe actualizaciones críticas, tales como parches de seguridad, en el curso de vida de cinco años de soporte general. Terry Myerson, vicepresidente ejecutivo de Windows and Devices Group de Windows, demostró que las metas de este modelo fue reducir la fragmentación en toda la plataforma de Windows, como Microsoft pretendía tener Windows 10 instalado en al menos mil millones de dispositivos en los dos o tres años después de su lanzamiento.9 Windows 10 recibió reseñas generalmente positivas en el día de su lanzamiento. Los críticos elogiaron la decisión deMicrosoft de retirar la interfaz de usuario introducido por Windows 8 (incluyendo las aplicaciones a pantalla completa y la pantalla Inicio)10 en un entorno
  • 169. no táctil para proporcionar una interfaz más orientado al escritorio en la misma línea de las versiones anteriores de Windows, aunque la interfaz de usuario de orientación táctil fue criticada por contener regresiones hacia la interfaz de Windows 8. Los críticos también elogiaron las mejoras para el software promocional de Windows 10 sobre 8.1, la integración de Xbox Live, así como la funcionalidad y capacidades de Cortana y la sustitución de Internet Explorer con Microsoft Edge (aunque el navegador fue criticado por encontrarse aún, en estado de desarrollo).11 12 La mayor parte de la crítica cayó sobre las limitaciones en el usuario para controlar algunas operaciones. En este caso,Windows Update instala las actualizaciones automáticamente. Se reportó una actualización errónea, con el código KB3081424 lanzada en agosto de 2015, que provocaba un error en el registro, esto pudo ser prevenido facílmente por el usuario, pero al no estar disponible dicha función, provocó molestias entre los usuarios afectados.13 Solo en Windows 10 en sus ediciones Pro y Enterprise se puede aplazar su instalación. Preocupaciones por la privacidad también fueron mencionadas por críticos y defensores al ver que los ajustes por defecto permiten el envío de información sobre el usuario a Microsoft y sus socios. Una red de computadoras (también llamada red de ordenadores, red de comunicaciones de datos, red informática) es un conjunto de equipos informáticos y softwareconectados entre sí por medio de dispositivos físicos o inalámbricos que envían y reciben impulsos eléctricos, ondas electromagnéticas o cualquier otro medio para el transporte de datos, con la finalidad de compartir información, recursos y ofrecer servicios.1
  • 170. Como en todo proceso de comunicación, se requiere de un emisor, un mensaje, un medio y un receptor. La finalidad principal para la creación de una red de ordenadores es compartir los recursos y la información en la distancia, asegurar la confiabilidad y la disponibilidad de la información, aumentar la velocidad de transmisión de los datos y reducir el costo. Un ejemplo es Internet, el cual es una gran red de millones de ordenadores ubicados en distintos puntos del planeta interconectados básicamente para compartir información y recursos. La estructura La estructura La estructura y el modo de funcionamiento de las redes informáticas actuales están definidos en varios estándares, siendo el más importante y extendido de todos ellos el modelo TCP/IP basado en el modelo de referencia OSI. Este último, estructura cada red en siete capas con funciones concretas pero relacionadas entre sí; en TCP/IP se reducen a cuatro capas. Existen multitud de protocolos repartidos por cada capa, los cuales también están regidos por sus respectivos estándares.2 Historia[editar] El primer indicio de redes de comunicación fue de tecnología telefónica y telegráfica. En 1940 se transmitieron datos desde la Universidad de Darmouth, en Nuevo Hampshire, a Nueva York. A finales de la década de 1960 y en los posteriores 70 fueron creados los miniordenadores. En 1976, Apple introduce el Apple I, uno de los primeros ordenadores personales. En 1981, IBM introduce su primer PC. A mitad de la década de 1980 los PC comienzan a usar los módem para compartir archivos con otros ordenadores, en un rango
  • 171. de velocidades que comenzó en 1200 bps y llegó a los 56 kbps (comunicación punto a punto o dial-up), cuando empezaron a ser sustituidos por sistema de mayor velocidad, especialmente ADSL ADSL ADSL ADSL. Descripción básica[editar] La comunicación por medio de una red se lleva a cabo en dos diferentes categorías: la capa física y la capa lógica. La capa física incluye todos los elementos de los que hace uso un equipo para comunicarse con otros equipos dentro de la red, como, por ejemplo, las tarjetas de red, los cables, las antenas, etc. La comunicación a través de la capa lógica se rige por normas muy rudimentarias que por sí mismas resultan de escasa utilidad. Sin embargo, haciendo uso de dichas normas es posible construir los denominados protocolos, que son normas de comunicación más complejas (mejor conocidas como de alto nivel), capaces de proporcionar servicios que resultan útiles. Los protocolos son un concepto muy similar al de los idiomas de las personas. Si dos personas hablan el mismo idioma, es posible comunicarse y transmitir ideas. La razón más importante (quizá la única) sobre por qué existe diferenciación entre la capa física y la lógica es sencilla: cuando existe una división entre ambas, es posible utilizar un número casi infinito de protocolos distintos, lo que facilita la actualización y migración entre distintas tecnologías.
  • 172. Componentes básicos de las redes[editar] Para poder formar una red se requieren elementos: hardware, software y protocolos. Los elementos físicos se clasifican en dos grandes grupos: dispositivos de usuario final (hosts) y dispositivos de red. Los dispositivos de usuario final incluyen los computadores, impresoras, escáneres, y demás elementos que brindan servicios directamente al usuario y los segundos son todos aquellos que conectan entre sí a los dispositivos de usuario final, posibilitando su intercomunicación. El fin de una red es interconectar los componentes hardware de una red , y por tanto, principalmente, los ordenadores individuales, también denominados hosts, a los equipos que ponen los servicios en la red, los servidores, utilizando el cableado o tecnología inalámbrica soportada por la electrónica de red y unidos por cableado o radiofrecuencia. En todos los casos la tarjeta de red se puede considerar el elemento primordial, sea parte de un ordenador, de un conmutador, de una impresora, etc. y sea de la tecnología que sea (ethernet, Wi-Fi, Bluetooth, etc.) Software[editar] Sistema operativo de red: Permite la interconexión de ordenadores para acceder a los servicios y recursos. Al igual que un equipo no puede trabajar sin un sistema operativo, una red de equipos no puede funcionar sin un sistema operativo de red. En muchos casos el sistema operativo de red es parte del sistema operativo de los servidores y de los clientes.
  • 173. Software de aplicación: En última instancia, todos los elementos se utilizan para que el usuario de cada estación, pueda utilizar sus programas y archivos específicos. Este software puede ser tan amplio como se necesite ya que puede incluir procesadores de texto, paquetes integrados, sistemas administrativos de contabilidad y áreas afines, sistemas especializados, correos electrónicos, etc. El software adecuado en el sistema operativo de red elegido y con los protocolos necesarios permiten crear servidores para aquellos servicios que se necesiten. Hardware[editar] Para lograr el enlace entre los ordenadores y los medios de transmisión (cables de red o medios físicos para redes alámbricas e infrarrojos o radiofrecuencias para redes inalámbricas), es necesaria la intervención de una tarjeta de red (NIC, Network interface controller), con la cual se puedan enviar y recibir paquetes de datos desde y hacia otros ordenadores, empleando un protocolo para su comunicación y convirtiendo a esos datos a un formato que pueda ser transmitido por el medio (bits, -ceros y unos-). Cabe señalar que a cada tarjeta de red le es asignado un identificador único por su fabricante, conocido como dirección MAC (Media Access Control), que consta de 48 bits (6 bytes). Dicho identificador permite direccionar el tráfico de datos de la red del emisor al receptor adecuado. El trabajo del adaptador de red es el de convertir las señales eléctricas que viajan por el cable (p. ej: red Ethernet) o las ondas de radio (p. ej: red Wi-Fi) en una
  • 174. señal que pueda interpretar el ordenador. Estos adaptadores son unas tarjetas PCI que se conectan en las ranuras de expansión del ordenador. En el caso de ordenadores portátiles, estas tarjetas vienen en formato PCMCIA o similares. En los ordenadores del siglo XXI, tanto de sobremesa como portátiles, estas tarjetas ya vienen integradas en la placa base. Adaptador de red es el nombre genérico que reciben los dispositivos encargados de realizar dicha conversión. Esto significa que estos adaptadores pueden ser tanto Ethernet, como wireless, así como de otros tipos como fibra óptica, coaxial, etc. También las velocidades disponibles varían según el tipo de adaptador; estas pueden ser, en Ethernet, de 10, 100, 1000 Mbps o 10 000, y en los inalámbricos, principalmente, de 11, 54, 300 Mbps. Dispositivos de usuario final[editar] Ordenadores personales: son los puestos de trabajo habituales de las redes. Dentro de la categoría de ordenadores, y más concretamente ordenadores personales, se engloban todos los que se utilizan para distintas funciones, según el trabajo que realizan. Se incluyen desde las potentes estaciones de trabajo para la edición de vídeo, por ejemplo, hasta los ligeros equipos portátiles, conocidos como netbooks, cuya función principal es la de navegar por Internet. Las tabletas se popularizaron al final de la primera década del siglo XXI, especialmente por el éxito del iPad de Apple. Terminal: muchas redes utilizan este tipo de equipo
  • 175. en lugar de puestos de trabajo para la entrada de datos. En estos solo se exhiben datos o se introducen. Este tipo de terminales, trabajan unido a un servidor, que es quien realmente procesa los datos y envía pantallas de datos a los terminales. Electrónica del hogar: las tarjetas de red empezaron a integrarse, de forma habitual, desde la primera década del siglo XXI, en muchos elementos habituales de los hogares: televisores, equipos multimedia, proyectores, videoconsolas, teléfonos celulares, libros electrónicos, etc. e incluso en electrodomésticos, como frigoríficos, convirtiéndolos en partes de las redes junto a los tradicionales ordenadores. Impresoras: muchos de estos dispositivos son capaces de actuar como parte de una red de ordenadores sin ningún otro elemento, tal como un print server, actuando como intermediario entre la impresora y el dispositivo que está solicitando un trabajo de impresión determinado. Los medios de conectividad de estos dispositivos pueden ser alámbricos o inalámbricos, dentro de este último puede ser mediante: ethernet, Wi-Fi, infrarrojo o bluetooth. En algunos casos se integran dentro de la impresora y en otros por medio de convertidores externos. Otros elementos: escáneres, lectores de CD-ROM. Servidores[editar] Son los equipos que ponen a disposición de los clientes
  • 176. los distintos servicios. En la siguiente lista hay algunos tipos comunes de servidores y sus propósitos: Servidor de archivos: almacena varios tipos de archivo y los distribuye a otros clientes en la red. Pueden ser servidos en distinto formato según el servicio que presten y el medio: FTP, HTTP, etc. Servidor de impresión: controla una o más impresoras y acepta trabajos de impresión de otros clientes de la red, poniendo en cola los trabajos de impresión (aunque también puede cambiar la prioridad de las diferentes impresiones), y realizando la mayoría o todas las otras funciones que en un sitio de trabajo se realizaría para lograr una tarea de impresión si la impresora fuera conectada directamente con el puerto de impresora del sitio de trabajo. Servidor de correo: almacena, envía, recibe, enruta y realiza otras operaciones relacionadas con el correo-e (e-mail) para los clientes de la red. Servidor de fax: almacena, envía, recibe, enruta y realiza otras funciones necesarias para la transmisión, la recepción y la distribución apropiadas de los fax, con origen y/o destino una Ordenador o un dispositivo físico de telefax. Servidor de telefonía: realiza funciones relacionadas con la telefonía, como es la de contestador automático, realizando las funciones de un sistema interactivo para la respuesta de la voz, almacenando los mensajes de voz, encaminando las llamadas y
  • 177. controlando también la red o Internet, etc. Pueden operar con telefonía IP o analógica. Servidor proxy: realiza un cierto tipo de funciones en nombre de otros clientes en la red para aumentar el funcionamiento de ciertas operaciones (p. ej., prefetching y depositar documentos u otros datos que se soliciten muy frecuentemente). También «sirve» seguridad; esto es, tiene un firewall (cortafuegos). Permite administrar el acceso a Internet en una red de ordenadores permitiendo o negando el acceso a diferentes sitios web, basándose en contenidos, origen/destino, usuario, horario, etc. Servidor de acceso remoto (Remote Access Service, RAS): controla las líneas de módems u otros canales de comunicación de la red para que las peticiones conecten una posición remota con la red, responden las llamadas telefónicas entrantes o reconocen la petición de la red y realizan los chequeos necesarios de seguridad y otros procedimientos necesarios para registrar a un usuario en la red. Gestionan las entradas para establecer la redes virtuales privadas (VPN). Servidor web: almacena documentos HTML, imágenes, archivos de texto, escrituras, y demás material web compuesto por datos (conocidos normalmente como contenido), y distribuye este contenido a clientes que la piden en la red. Servidor de streaming: servidores que distribuyen
  • 178. multimedia de forma continua evitando al usuario esperar a la descarga completa del fichero. De esta forma se pueden distribuir contenidos tipo radio, vídeo, etc. en tiempo real y sin demoras. Servidor de reserva (standby server): tiene el software de reserva de la red instalado y tiene cantidades grandes de almacenamiento de la red en discos duros u otras formas del almacenamiento disponibles para que se utilice con el fin de asegurarse de que la pérdida de un servidor principal no afecte a la red. El servidor de reserva lo puede ser de cualquiera de los otros tipos de servidor, siendo muy habituales en los servidores de aplicaciones y bases de datos. Servidor de autenticación: es el encargado de verificar que un usuario pueda conectarse a la red en cualquier punto de acceso, ya sea inalámbrico o por cable, basándose en el estándar 802.1x y puede ser un servidor de tipo RADIUS. Servidores para los servicios de red: estos equipos gestionan aquellos servicios necesarios propios de la red y sin los cuales no se podrían interconectar, al menos de forma sencilla. Algunos de esos servicios son: servicio de directorio para la gestión de los usuarios y los recursos compartidos, Dynamic Host Configuration Protocol (DHCP) para la asignación de las direcciones IP en redes TCP/IP, Domain Name System (DNS) para poder nombrar los equipos sin tener que recurrir a su dirección IP numérica, etc.
  • 179. Servidor de base de datos: permite almacenar la información que utilizan las aplicaciones de todo tipo, guardándola ordenada y clasificada y que puede ser recuperada en cualquier momento y sobre la base de una consulta concreta. Estos servidores suelen utilizar lenguajes estandarízados para hacer más fácil y reutilizable la programación de aplicaciones, uno de los más populares es SQL. Servidor de aplicaciones: ejecuta ciertas aplicaciones. Usualmente se trata de un dispositivo de software que proporciona servicios de aplicación a los ordenadores cliente. Un servidor de aplicaciones gestiona la mayor parte (o la totalidad) de las funciones de lógica de negocio y de acceso a los datos de la aplicación. Los principales beneficios de la aplicación de la tecnología de servidores de aplicación son la centralización y la disminución de la complejidad en el desarrollo de aplicaciones. Servidores de monitorización y gestión: ayudan a simplificar las tareas de control, monitorización, búsqueda de averías, resolución de incidencias, etc. Permiten, por ejemplo, centralizar la recepción de mensajes de aviso, alarma e información que emiten los distintos elementos de red (no solo los propios servidores). El SNMP es un de los protocolos más difundidos y que permite comunicar elementos de distintos fabricantes y de distinta naturaleza. Y otros muchos dedicados a múltiples tareas, desde muy generales a aquellos de una especificidad enorme.
  • 180. Almacenamiento en red[editar] En las redes medianas y grandes el almacenamiento de datos principal no se produce en los propios servidores sino que se utilizan dispositivos externos, conocidos como disk arrays (matrices de discos) interconectados, normalmente por redes tipo SAN o Network-Attached Storage (NAS). Estos medios permiten centralizar la información, una mejor gestión del espacio, sistemas redundantes y de alta disponibilidad. Los medios de copia de seguridad suelen incluirse en la misma red donde se alojan los medios de almacenamiento mencionados más arriba, de esta forma el traslado de datos entre ambos, tanto al hacer la copia como las posibles restauraciones, se producen dentro de esta red sin afectar al tráfico de los clientes con los servidores o entre ellos. Dispositivos de red[editar] Los equipos informáticos descritos necesitan de una determinada tecnología que forme la red en cuestión. Según las necesidades se deben seleccionar los elementos adecuados para poder completar el sistema. Por ejemplo, si queremos unir los equipos de una oficina entre ellos debemos conectarlos por medio de un conmutador o un concentrador, si además hay un varios portátiles con tarjetas de red Wi-Fi debemos conectar un punto de acceso inalámbrico para que recoja sus señales y pueda enviarles las que les correspondan, a su vez el punto de acceso estará conectado al conmutador por un cable. Si todos ellos deben disponer de acceso a Internet, se interconectarán por medio de un router, que podría ser ADSL, ethernet sobre fibra óptica, broadband,
  • 181. etc. Los elementos de la electrónica de red más habituales son: Conmutador de red (switch), Enrutador (router), Puente de red (bridge), Puente de red y enrutador (brouter), Punto de acceso inalámbrico (Wireless Access Point, WAP). Protocolos de redes[editar] Existen diversos protocolos, estándares y modelos que determinan el funcionamiento general de las redes. Destacan el modelo OSI y el TCP/IP. Cada modelo estructura el funcionamiento de una red de manera distinta. El modelo OSI cuenta con siete capas muy definidas y con funciones diferenciadas y el TCP/IP con cuatro capas diferenciadas pero que combinan las funciones existentes en las siete capas del modelo OSI.3 Los protocolos están repartidos por las diferentes capas pero no están definidos como parte del modelo en sí sino como entidades diferentes de normativas internacionales, de modo que el modelo OSI no puede ser considerado una arquitectura de red.4 Modelo OSI[editar] El modelo OSI (Open System Interconnection) fue creado por la ISO y se encarga de la conexión entre sistemas abiertos; esto es, sistemas abiertos a la comunicación con otros sistemas. Los principios en los que basó su creación eran: una mayor definición de las
  • 182. funciones de cada capa, evitar agrupar funciones diferentes en la misma capa y una mayor simplificación en el funcionamiento del modelo en general.3 Este modelo divide las funciones de red en siete capas diferenciadas: [[PASTING TABLES IS NOT SUPPORTED]]Modelo TCP/IP[editar] Artículo principal: TCP/IP Este modelo es el implantado actualmente a nivel mundial: fue primero utilizado en ARPANET y es utilizado actualmente a nivel global en Internet y redes locales. Su nombre deriva de la unión de los nombres de los dos principales protocolos que lo conforman: TCP en la capa de transporte e IP en la capa de red.5 Se compone de cuatro capas: [[PASTING TABLES IS NOT SUPPORTED]]Otros estándares[editar] Existen otros estándares, más concretos, que definen el modo de funcionamiento de diversas tecnologías de transmisión de datos. La siguiente lista no es completa, solo muestra algunos ejemplos: [[PASTING TABLES IS NOT SUPPORTED]]Clasificación de las redes[editar] Una red puede recibir distintos calificativos de clasificación sobre la base de distintas taxonomías: alcance, tipo de conexión, tecnología, etc. Por alcance[editar]
  • 183. Red de área personal (Personal Area Network, PAN) es una red de ordenadores usada para la comunicación entre los dispositivos de el Ordenador cerca de una persona. Red inalámbrica de área personal (Wireless Personal Area Network, WPAN), es una red de ordenadores inalámbrica para la comunicación entre distintos dispositivos (tanto ordenadores, puntos de acceso a internet, teléfonos celulares, PDA, dispositivos de audio, impresoras) cercanos al punto de acceso. Estas redes normalmente son de unos pocos metros y para uso personal, así como fuera de ella. El medio de transporte puede ser cualquiera de los habituales en las redes inalámbricas pero las que reciben esta denominación son habituales en Bluetooth. Red de área local (Local Area Network, LAN), es una red que se limita a un área especial relativamente pequeña tal como un cuarto, un solo edificio, una nave, o un avión. Las redes de área local a veces se llaman una sola red de localización. No utilizan medios o redes de interconexión públicos. Red de área local inalámbrica (Wireless Local Area Network, WLAN), es un sistema de comunicación de datos inalámbrico flexible, muy utilizado como alternativa a las redes de área local cableadas o como extensión de estas. Red de área de campus (Campus Area Network, CAN), es una red de ordenadores de alta velocidad que conecta redes de área local a través de un área
  • 184. geográfica limitada, como un campus universitario, una base militar, hospital, etc. Tampoco utiliza medios públicos para la interconexión. Red de área metropolitana (Metropolitan Area Network, MAN) es una red de alta velocidad (banda ancha) que da cobertura en un área geográfica más extensa que un campus, pero aun así limitado. Por ejemplo, una red que interconecte los edificios públicos de un municipio dentro de la localidad por medio de fibra óptica. Red de área amplia (Wide Area Network, WAN), son redes informáticas que se extienden sobre un área geográfica extensa utilizando medios como: satélites, cables interoceánicos, Internet, fibras ópticas públicas, etc. Red de área de almacenamiento (Storage Area Network, SAN), es una red concebida para conectar servidores, matrices (arrays) de discos y librerías de soporte, permitiendo el tránsito de datos sin afectar a las redes por las que acceden los usuarios. Red de área local virtual (Virtual LAN, VLAN), es un grupo de ordenadores con un conjunto común de recursos a compartir y de requerimientos, que se comunican como si estuvieran adjuntos a una división lógica de redes de ordenadores en la cual todos los nodos pueden alcanzar a los otros por medio de broadcast (dominio de broadcast) en la capa de enlace de datos, a pesar de su diversa localización física. Este tipo surgió como respuesta a
  • 185. la necesidad de poder estructurar las conexiones de equipos de un edificio por medio de software,10 permitiendo dividir un conmutador en varios virtuales. Por tipo de conexión[editar] Medios guiados[editar] Cable de par trenzado: es una forma de conexión en la que dos conductores eléctricos aislados son entrelazados para tener menores interferencias y aumentar la potencia y disminuir la diafonía de los cables adyacentes. Dependiendo de la red se pueden utilizar, uno, dos, cuatro o más pares trenzados. Cable coaxial: se utiliza para transportar señales electromagnéticas de alta frecuencia, el cual posee un núcleo sólido (generalmente de cobre) o de hilos, recubierto por un material dieléctrico y una malla o blindaje, que sirven para aislar o proteger la señal de información contra las interferencias o ruido exterior. Fibra óptica: es un medio de transmisión empleado habitualmente en redes de datos; un hilo muy fino de material transparente, vidrio o materiales plásticos, por el que se envían pulsos de luz que representan los datos a transmitir. Medios no guiados[editar] Red por radio es aquella que emplea la radiofrecuencia como medio de unión de las diversas estaciones de la red. Red por infrarrojos (Infrared Data Association, IrDA), permiten la comunicación entre dos nodos, usando
  • 186. una serie de ledes infrarrojos para ello. Se trata de emisores/receptores de ondas infrarrojas entre ambos dispositivos, cada dispositivo necesita al otro para realizar la comunicación por ello es escasa su utilización a gran escala. No disponen de gran alcance y necesitan de visibilidad entre los dispositivos. Red por microondas, es un tipo de red inalámbrica que utiliza microondas como medio de transmisión. Los protocolos más frecuentes son: el IEEE 802.11b y transmite a 2,4 GHz, alcanzando velocidades de 11 Mbps (Megabits por segundo); el rango de 5,4 a 5,7 GHz para el protocolo IEEE 802.11a; el IEEE 802.11n que permite velocidades de hasta 600 Mbps; etc. Por relación funcional[editar] Cliente-servidor es la arquitectura que consiste básicamente en un cliente que realiza peticiones a otro programa (el servidor) que le da respuesta. Peer-to-peer, o red entre iguales, es aquella red de ordenadores en la que todos o algunos aspectos funcionan sin clientes ni servidores fijos, sino una serie de nodos que se comportan como iguales entre sí. Por tecnología[editar] Red punto a punto (point to point, PtP) es aquella en la que existe multitud de conexiones entre parejas individuales de máquinas. Este tipo de red requiere, en algunos casos, máquinas intermedias que
  • 187. establezcan rutas para que puedan transmitirse paquetes de datos. El medio electrónico habitual para la interconexión es el conmutador, o switch. Red de Difusión (broadcast) se caracteriza por transmitir datos por un solo canal de comunicación que comparten todas las máquinas de la red. En este caso, el paquete enviado es recibido por todas las máquinas de la red pero únicamente la destinataria puede procesarlo. Los equipos unidos por un concentrador (hub), forman redes de este tipo. Red multipunto, dispone de una línea o medio de comunicación cuyo uso está compartido por todas las terminales en la red. La información fluye de forma bidireccional. Los terminales pueden estar separados geográficamente. Por topología física[editar] Topologías físicas de red. Red en bus (bus o «conductor común») o Red lineal (line): se caracteriza por tener un único canal de comunicaciones (denominado bus, troncal o backbone) al cual se conectan los diferentes dispositivos. Red en anillo' (ring) o Red circular: cada estación está conectada a la siguiente y la última está conectada a la primera. Además, puede compararse con la Red en cadena margarita (dDaisy chain). Red en estrella (star): las estaciones están conectadas directamente a un punto central y todas las comunicaciones se han de hacer necesariamente a través de este.
  • 188. Red en malla (mesh): cada nodo está conectado a todos los otros. Red en árbol (tree) o Red jerárquica: los nodos están colocados en forma de árbol. Desde una visión topológica, la conexión en árbol es parecida a una serie de redes en estrella interconectadas salvo en que no tiene un nodo central. Red híbrida o Red mixta: se da cualquier combinación de las anteriores. Por ejemplo, circular de estrella, bus de estrella, etc. Por la direccionalidad de los datos[editar] Simplex o unidireccional: un equipo terminal de datos transmite y otro recibe. Half-duplex o semidúplex: el método o protocolo de envío de información es bidireccional pero no simultáneo bidireccional, solo un equipo transmite a la vez. Full-duplex o dúplex: los dos equipos involucrados en la comunicación lo pueden hacer de forma simultánea, transmitir y recibir. Por grado de autentificación[editar] Red privada: es una red que solo puede ser usada por algunas personas y que está configurada con clave de acceso personal.[cita requerida] Red de acceso público: una red pública se define como una red que puede usar cualquier persona y no como las redes que están configuradas con clave de acceso personal. Es una red de ordenadores interconectados, capaz de compartir información y
  • 189. que permite comunicar a usuarios sin importar su ubicación geográfica.[cita requerida] Por grado de difusión[editar] Una intranet es una red privada de ordenadores que utiliza tecnología de Internet para compartir dentro de una organización parte de sus sistemas de información y sistemas operacionales. La Internet es un conjunto descentralizado de redes de comunicación interconectadas que utilizan la familia de protocolos TCP/IP, garantizando que las redes físicas heterogéneas que la componen funcionen como una red lógica única, de alcance mundial. Por servicio o función[editar] Red comercial proporciona soporte e información para una empresa u organización con ánimo de lucro. Red educativa proporciona soporte e información para una organización educativa dentro del ámbito del aprendizaje. Red para el proceso de datos proporciona una interfaz para intercomunicar equipos que vayan a realizar una función de cómputo conjunta Una red de área local o LAN (por las siglas en inglés de Local Area Network) es una red de computadoras que abarca un área reducida a una casa, un departamento o un edificio.1 La topología de red define la estructura de una red. Una
  • 190. parte de la definición topológica es la topología física, que es la disposición real de los cables o medios. La otra parte es la topología lógica, que define la forma en que los hosts acceden a los medios para enviar datos. Topologías físicas[editar] Las topologías más comúnmente usadas son las siguientes: Una topología de bus usa solo un cable backbone que debe terminarse en ambos extremos. Todos los host se conectan directamente a este backbone. Su funcionamiento es simple y es muy fácil de instalar, pero es muy sensible a problemas de tráfico, y un fallo o una rotura en el cable interrumpe todas las transmisiones. La topología de anillo conecta los nodos punto a punto, formando un anillo físico y consiste en conectar varios nodos a una red que tiene una serie de repetidores. Cuando un nodo transmite información a otro la información pasa por cada repetidor hasta llegar al nodo deseado. El problema principal de esta topología es que los repetidores son unidireccionales (siempre van en el mismo sentido). Después de pasar los datos enviados a otro nodo por dicho nodo, continua circulando por la red hasta llegar de nuevo al nodo de origen, donde es eliminado. Esta topología no tiene problemas por la congestión de tráfico, pero si hay una rotura de un enlace, se produciría un fallo general en la red. La topología en estrella conecta todos los nodos con un nodo central. El nodo central conecta
  • 191. directamente con los nodos, enviándoles la información del nodo de origen, constituyendo una red punto a punto. Si falla un nodo, la red sigue funcionando, excepto si falla el nodo central, que las transmisiones quedan interrumpidas. Una topología en estrella extendida conecta estrellas individuales entre sí mediante la conexión de concentradores (hubs) o switches. Esta topología puede extender el alcance y la cobertura de la red. Una topología jerárquica es similar a una estrella extendida. Pero en lugar de conectar los hubs o switches entre sí, el sistema se conecta con un computador que controla el tráfico de la topología. La topología de malla se implementa para proporcionar la mayor protección posible para evitar una interrupción del servicio. El uso de una topología de malla en los sistemas de control en red de una planta nuclear sería un ejemplo excelente. En esta topología, cada host tiene sus propias conexiones con los demás hosts. Aunque Internet cuenta con múltiples rutas hacia cualquier ubicación, no adopta la topología de malla completa. La topología de árbol tiene varias terminales conectadas de forma que la red se ramifica desde un servidor base. Un fallo o rotura en el cable interrumpe las transmisiones. La topología de doble anillo es una de las tres principales topologías. Las estaciones están unidas una con otra formando un círculo por medio de un cable común. Las señales circulan en un solo sentido alrededor del círculo, regresándose en cada nodo. El doble anillo es una variación del anillo que se utiliza
  • 192. principalmente en redes de fibra como FDDI es el doble anillo. La topología mixta es aquella en la que se aplica una mezcla entre alguna de las otras topologías: bus, estrella o anillo. Principalmente las podemos encontrar dos topologías mixtas: Estrella-Bus y Estrella-Anillo. Los cables más utilizados son el cable de par trenzado, el cable coaxial y la fibra óptica. Topologías lógicas[editar] La topología lógica de una red es la forma en que los hosts se comunican a través del medio. Los dos tipos más comunes de topologías lógicas son broadcast y transmisión de tokens. La topología broadcast simplemente significa que cada host envía sus datos hacia todos los demás hosts del medio de red. No existe un orden que las estaciones deban seguir para utilizar la red. Es por orden de llegada, es como funciona Ethernet. La topología transmisión de tokens controla el acceso a la red mediante la transmisión de un token electrónico a cada host de forma secuencial. Cuando un host recibe el token, ese host puede enviar datos a través de la red. Si el host no tiene ningún dato para enviar, transmite el token al siguiente host y el proceso se vuelve a repetir. Dos ejemplos de redes que utilizan la transmisión de tokens son Token Ring y la interfaz de datos distribuida por fibra (FDDI). Arcnet es una variación de Token Ring y FDDI. Arcnet es la transmisión de tokens en una topología de bus. Tipos[editar]
  • 193. La oferta de redes de área local es muy amplia, existiendo soluciones casi para cualquier circunstancia. Podemos seleccionar el tipo de cable, la topología e incluso el tipo de transmisión que más se adapte a nuestras necesidades. Sin embargo, de toda esta oferta las soluciones más extendidas son tres: Ethernet, Token Ring y Arcnet. Comparativa de los tipos de redes[editar] Para elegir el tipo de red que más se adapte a nuestras pretensiones, tenemos que tener en cuenta distintos factores, como son el número de estaciones, distancia máxima entre ellas, dificultad del cableado, necesidades de velocidad de respuesta o de enviar otras informaciones aparte de los datos de la red y, como no, el costo. Como referencia para los parámetros anteriores, podemos realizar una comparación de los tres tipos de redes comentados anteriormente. Para ello, supongamos que el tipo Ethernet y Arcnet se instalan con cable coaxial y Token Ring con par trenzado apantallado. En cuanto a las facilidades de instalación, Arcnet resulta ser la más fácil de instalar debido a su topología. Ethernet y Token Ring necesitan de mayor reflexión antes de proceder con su implementación. En cuanto a la velocidad, Ethernet es la más rápida, entre 10 y 1000 Mbit/s, Arcnet funciona a 2,5 Mbit/s y Token Ring a 4 Mbit/s. Actualmente existe una versión de Token Ring a 16 Mbit/s, pero necesita un tipo de cableado más caro. En cuanto al precio, Arcnet es la que ofrece un menor costo; por un lado porque las tarjetas que se instalan en
  • 194. los PC para este tipo de redes son más baratas, y por otro, porque el cableado es más accesible. Token Ring resulta ser la que tiene un precio más elevado, porque, aunque las placas de los PC son más baratas que las de la red Ethernet, sin embargo su cableado resulta ser caro, entre otras cosas porque se precisa de una MAU por cada grupo de ocho usuarios más. Componentes[editar] Servidor: el servidor es aquel o aquellas computadoras que van a compartir sus recursos hardware y software con los demás equipos de la red. Sus características son potencia de cálculo, importancia de la información que almacena y conexión con recursos que se desean compartir. Estación de trabajo: las computadoras que toman el papel de estaciones de trabajo aprovechan o tienen a su disposición los recursos que ofrece la red así como los servicios que proporcionan los Servidores a los cuales pueden acceder. Gateways o pasarelas: es un hardware y software que permite las comunicaciones entre la red local y grandes computadoras (mainframes). El gateway adapta los protocolos de comunicación del mainframe (X25, SNA, etcétera) a los de la red, y viceversa. Bridges o puentes de red: es un hardware y software que permite que se conecten dos redes locales entre sí. Un puente interno es el que se instala en un servidor de la red, y un puente externo es el que se hace sobre una estación de trabajo de la misma red. Los puentes también pueden ser locales o remotos.
  • 195. Los puentes locales son los que conectan a redes de un mismo edificio, usando tanto conexiones internas como externas. Los puentes remotos conectan redes distintas entre sí, llevando a cabo la conexión a través de redes públicas, como la red telefónica, RDSI o red de conmutación de paquetes. Tarjeta de red: también se denominan NIC (Network Interface Card). Básicamente realiza la función de intermediario entre la computadora y la red de comunicación. En ella se encuentran grabados los protocolos de comunicación de la red. La comunicación con la computadora se realiza normalmente a través de las ranuras de expansión que éste dispone, ya sea ISA, PCI o PCMCIA. Aunque algunos equipos disponen de este adaptador integrado directamente en la placa base. El medio: constituido por el cableado y los conectores que enlazan los componentes de la red. Los medios físicos más utilizados son el cable de par trenzado, cable coaxial y la fibra óptica (cada vez en más uso esta última). Concentradores de cableado: una LAN en bus usa solamente tarjetas de red en las estaciones y cableado coaxial para interconectarlas, además de los conectores, sin embargo este método complica el mantenimiento de la red ya que si falla alguna conexión toda la red deja de funcionar. Para impedir estos problemas las redes de área local usan concentradores de cableado para realizar las conexiones de las estaciones, en vez de distribuir las conexiones el concentrador las centraliza en un
  • 196. único dispositivo manteniendo indicadores luminosos de su estado e impidiendo que una de ellas pueda hacer fallar toda la red. Existen dos tipos de concentradores de cableado: Concentradores pasivos: actúan como un simple concentrador cuya función principal consiste en interconectar toda la red. 1. Concentradores activos: además de su función básica de concentrador también amplifican y regeneran las señales recibidas antes de ser enviadas y ejecutadas. 2. Los concentradores de cableado tienen dos tipos de conexiones: para las estaciones y para unirse a otros concentradores y así aumentar el tamaño de la red. Los concentradores de cableado se clasifican dependiendo de la manera en que internamente realizan las conexiones y distribuyen los mensajes. A esta característica se le llama topología lógica.Existen dos tipos principales: Concentradores con topología lógica en bus (HUB): estos dispositivos hacen que la red se comporte como un bus enviando las señales que les llegan por todas las salidas conectadas. 1. Concentradores con topología lógica en anillo (MAU): se comportan como si la red fuera un anillo enviando la señal que les llega por un puerto al siguiente. 2. Realmente no hay un límite máximo de computadoras, dependerá entre otras cosas de los switches que se
  • 197. utilicen. No obstante, considerando que se tuvieran muy buenos equipos y bien organizada la red, entre 400 y 500 sería lo máximo que podría soportar la LAN sin que empezara a degradarse notablemente el rendimiento de la red a causa del propio tráfico de broadcast. Una copia de seguridad, respaldo, copy backup, copia de respaldo, copia de reserva (del inglés backup) en ciencias de la información e informática es una copia de los datos originales que se realiza con el fin de disponer de un medio para recuperarlos en caso de su pérdida. Las copias de seguridad son útiles ante distintos eventos y usos: recuperar los sistemas informáticos y los datos de una catástrofe informática, natural o ataque; restaurar una pequeña cantidad de archivos que pueden haberse eliminado accidentalmente, corrompido, infectado por un virus informático u otras causas; guardar información histórica de forma más económica que los discos duros y además permitiendo el traslado a ubicaciones distintas de la de los datos originales; etc. El proceso de copia de seguridad se complementa con otro conocido como restauración de los datos, que es la acción de leer y grabar en la ubicación original u otra alternativa los datos requeridos. La pérdida de datos es muy común, el 66 % de los usuarios de Internet han sufrido una seria pérdida de datos en algún momento.1 Ya que los sistemas de respaldo contienen por lo menos una copia de todos los datos que vale la pena salvar, deben de tenerse en cuenta los requerimientos de almacenamiento. La organización del espacio de almacenamiento y la administración del proceso de efectuar la copia de seguridad son tareas complicadas.
  • 198. Para brindar una estructura de almacenamiento es conveniente utilizar un modelo de almacenaje de datos. En noviembre de 2010 existían muchos tipos diferentes de dispositivos para almacenar datos que eran útiles para hacer copias de seguridad, cada uno con sus ventajas y desventajas a tener en cuenta para elegirlos, como duplicidad, seguridad en los datos y facilidad de traslado. Antes de que los datos sean enviados a su lugar de almacenamiento se lo debe seleccionar, extraer y manipular. Se han desarrollado muchas técnicas diferentes para optimizar el procedimiento de efectuar los backups. Estos procedimientos incluyen entre otros optimizaciones para trabajar con archivos abiertos y fuentes de datos en uso y también incluyen procesos de compresión, cifrado, y procesos de desduplicación, entendiéndose por esto último a una forma específica de compresión donde los datos superfluos son eliminados. Muchas organizaciones ang Elección, acceso, y manipulación de datos[editar]Decidir qué se va a incluir en la copia de seguridad es un proceso más complejo de lo que parece[editar] Si copiamos muchos datos redundantes agotamos la capacidad de almacenamiento disponible rápidamente. Si no realizamos una copia de seguridad de los suficientes datos, podría perderse información crítica. La clave está en guardar copias de seguridad sólo de aquello que se ha modificado. Archivos a copiarSólo copiar los ficheros que se hayan modificado o movidoDepósito del sistema de ficherosCopiar el sistema de ficheros que tienen los
  • 199. ficheros copiados. Esto normalmente implica desmontar el sistema de ficheros y hacer funcionar un programa como un depósito. Esto es también conocido como copia de seguridad particionada en bruto. Este tipo de copia de seguridad tiene la posibilidad de hacer funcionar una copia más rápida que la simple copia de ficheros. El rasgo de algunos software de depósitos es la habilidad para restaurar ficheros específicos de la imagen del depósito.Control de CambiosAlgunos sistemas de ficheros poseen un bit de archivo para cada fichero este nos indica si recientemente ha sido modificado. Algunos software de copia de seguridad miran la fecha del fichero y la comparan con la última copia de seguridad, para así determinar si el archivo se ha modificado.Incremental a nivel de bloqueUn sistema más sofisticado de copia de seguridad de ficheros es el basado en solamente copiar los bloques físicos del fichero que han sufrido algún cambio. Esto requiere un alto nivel de integración entre el sistema de ficheros y el software de la copia de seguridad.Incremental o diferencial binariaEs tecnología de respaldo que se desarrolla en la década de 2000. El método es similar a la Incremental a nivel de bloque, pero basada en reflejar las variaciones binarias que sufren los ficheros respecto al anterior backup. Mientras la tecnología a nivel de bloque trabaja con unidades de cambio relativamente grandes (bloques de 8Ks, 4Ks, 1K) la tecnología a nivel de byte trabaja con la unidad mínima capaz de ahorrar espacio para reflejar un cambio. Otra diferencia importante es que es independiente del sistema de ficheros. Actualmente es la tecnología que consigue la máxima compresión relativa de la información y ofrece así una ventaja importante en las copias de seguridad a través de la Internet.Versionado del sistema de
  • 200. ficherosEl versionado del sistema de ficheros se mantiene atento a los cambios del fichero y crea estos cambios accesibles al usuario. Esta es una forma de copia de seguridad que está integrada al ambiente informático.Copia de seguridad de datos en uso[editar] Si un ordenador está en uso mientras se ejecuta su copia de seguridad, existe la posibilidad de que haya ficheros abiertos, ya que puede que se esté trabajando sobre ellos. Si un fichero está abierto, el contenido en el disco posiblemente no refleje exactamente lo que el usuario ve. Esto es especialmente frecuente en ficheros de bases de datos. Cuando se intenta entender la logística de la copia de seguridad de ficheros abiertos, uno debe considerar que el proceso de copia de seguridad puede llevar varios minutos en copiar un gran fichero como una bases de datos. A fin de copiar un fichero en uso, es vital que la copia de seguridad entera represente un único paso. Esto representa un reto cuando se está copiando un fichero en continua modificación. Aunque el archivo de base de datos esté bloqueado para evitar cambios, se debe implementar un método para asegurar que el original snapshot sea preservado con tiempo de sobra para ser copiado, incluso cuando se mantengan los cambios. Copia instantánea de volumen o snapshot: copia en escrituraLa copia instantánea de volumen es una función de algunos sistemas que realizan copias de los ficheros como si estuvieran congelados en un momento determinado.Copia de seguridad de ficheros abiertos: ficheros bloqueadosAlgunos paquetes de software de copias de seguridad no poseen la capacidad de realizar
  • 201. copias de ficheros abiertos. Simplemente comprueban que el fichero esté cerrado y si no lo está lo intentan más tarde.Copias de seguridad de bases de datos en calienteAlgunos sistemas de gestión de bases de datos ofrecen medios para realizar imágenes de copias de seguridad de una base de datos mientras esté activa y en uso (en caliente). Esto normalmente incluye una imagen consistente de los ficheros de datos en un cierto momento más un registro de los cambios hechos mientras el algoritmo está funcionando.Manipulación de los datos de la copia de seguridad[editar] Es una práctica habitual el manipular los datos guardados en las copias de seguridad para optimizar tanto los procesos de copia como el almacenamiento. CompresiónLa compresión es el mejor método para disminuir el espacio de almacenamiento necesario y de ese modo reducir el costo.RedundanciaCuando varios sistemas guardan sus copias de seguridad en el mismo sistema de almacenamiento, existe la posibilidad de redundancia en los datos copiados. Si tenemos estaciones con el mismo sistema operativo compartiendo el mismo almacén de datos, existe la posibilidad de que la mayoría de los archivos del sistema sean comunes. El almacén de datos realmente sólo necesita almacenar una copia de esos ficheros para luego ser utilizada por cualquiera de las estaciones. Esta técnica puede ser aplicada al nivel de ficheros o incluso al nivel de bloques de datos, reduciendo el espacio utilizado para almacenar.DeduplicaciónEs una técnica especializada de compresión de datos para eliminar copias duplicadas de datos repetidos. Un término relacionado con la deduplicación de datos es la compresión inteligente de datos. Esta técnica se usa
  • 202. para optimizar el almacenamiento de datos en disco y también para reducir la cantidad de información que debe enviarse de un dispositivo a otro a través de redes de comunicación.CifradoLa alta capacidad de los soportes de almacenamiento desmontables implica un riesgo de perderse o ser robados. Si se cifra la información de estos soportes se puede mitigar el problema, aunque esto presenta nuevos inconvenientes. Primero, cifrar es un proceso que consume mucho tiempo de CPU y puede bajar la velocidad de copiado. En segundo lugar, una vez cifrados los datos, la compresión es menos eficaz.Administración del proceso de copia de seguridad[editar]Limitaciones[editar] Un esquema de copia de seguridad efectiva debe tener en consideración las limitaciones de la situación. Todo esquema de copia de seguridad tiene cierto impacto en el sistema que ha sido copiado. Si este impacto es significativo, la copia de seguridad debe ser acotada en el tiempo. Todos los soportes de almacenamiento tienen una capacidad finita y un coste real. Buscar la cantidad correcta de capacidad acorde con las necesidades de la copia de seguridad es una parte importante del diseño del esquema de la copia. Implementación[editar] Alcanzar los objetivos definidos en vista de las limitaciones existentes puede ser una tarea difícil. Las herramientas y conceptos descritos a continuación pueden hacer que esta tarea sea más alcanzable. HorariosProgramar un horario de ejecución de las copias de seguridad aumenta considerablemente su
  • 203. efectividad y nivel de optimización. Muchos paquetes de software de copias de seguridad ofrecen esta posibilidad.AutentificaciónSobre el curso de operaciones regulares, las cuentas de usuario y/o los agentes del sistema que representan la copia de seguridad necesitan ser autentificados a cierto nivel. El poder de copiar todos los datos fuera o dentro del sistema requiere acceso sin restricción. Utilizar un mecanismo de autentificación es una buena manera de evitar que el esquema de la copia de seguridad sea usado por actividades sin autorizar.Cadena de confianzaLos soportes de almacenamiento portátiles son elementos físicos y deben ser gestionados sólo por personas de confianza. Establecer una cadena de confianza individual es crítico para defender la seguridad de los datos.Validación de copias de seguridadEl proceso por el cual los dueños de los datos pueden obtener información considerando como fueron copiados esos datos. El mismo proceso es también usado para probar conformidad para los cuerpos reguladores fuera de la organización. Terrorismo, complejidad de datos, valores de datos y aumento de la dependencia sobre volúmenes de datos crecientes, todos contribuyen a una ansiedad alrededor y dependencia sobre copias de seguridad satisfactorias. Por ello varias organizaciones normalmente relegan sobre terceras personas o soluciones independientes la averiguación, validación, optimización y el hacerse cargo de sus operaciones de copia de seguridad. Algunos programas de copias de seguridad modernas han incorporado capacidades de validación.ReportandoEn configuraciones más largas, los reportes son útiles para monitorizar los medios usados, el estado de dispositivos, errores, coordinación de saltos y cualquier
  • 204. otra información sobre el proceso de copia de seguridad.RegistrandoEn suma a la historia de los reportes generados por el ordenador, actividades y registros de cambio son útiles para así entender mejor la copia de seguridad.VerificaciónMuchos programas de copia de seguridad hacen uso de Sumas de verificación o hashes. Esto ofrece muchas ventajas. Primero, estos permiten a la integridad de los datos ser verificados sin hacer referencia al archivo original: si el archivo guardado en un medio de copia tiene la misma suma de verificación que el valor salvado, después es muy probable que sea correcto. Segundo, algunos programas de copias de seguridad pueden usar sumas de verificación para evitar hacer redundantes copias de archivos, y así mejorar la velocidad de la copia de seguridad. Esto es particularmente útil en procesos de reduplicado.Software de copias de seguridad[editar] Existe una gran gama de software en el mercado para realizar copias de seguridad. Es importante definir previamente los requerimientos específicos para determinar el softwareadecuado. Existe una infinidad de programas adaptados a cada necesidad. Para la adecuación a la LOPD de ficheros con datos de carácter personal de nivel alto (salud, vida sexual, religión, etc.) la regulación exige que las copias de seguridad de dichos datos se almacenen cifrados y en una ubicación diferente al lugar de origen. La copia de seguridad es el mejor método de protección de datos de importancia, pero siempre existe la posibilidad de que la copia de datos no haya funcionado correctamente y en caso de necesidad de restauración de los datos no podamos realizarlo ya que la
  • 205. información de la copia de seguridad puede encontrarse corrupta por diversos motivos: el medio en el que se realizaba la copia se encuentra dañado. los automatismos de copia no se han ejecutado correctamente. y otros muchos motivos que pueden causar que nuestras copias de seguridad sean incorrectas, y por lo tanto inútiles. Para evitar este problema es muy importante que nos cercioremos de que hacemos las copias correctamente y comprobemos que somos capaces de restaurar la copia de seguridad a su ubicación original, comprobando así que la copia sea correcta y que somos capaces de restaurarla y conocemos el método de restauración, ya que en caso de necesidad crítica los nervios afloran y nos pueden echar por tierra nuestra labor de copia al realizar algún paso erróneo a la hora de restaurar los datos. En el hipotético caso de que no podamos restaurar nuestra información, existe una última alternativa, ya que en el mercado existen aplicaciones de recuperación de datos que nos pueden ayudar en caso de que no podamos restaurar nuestra copia de seguridad. También existen métodos de recuperación de datos vía web. Por último, y en casos extremos como unidades dañadas, sólo nos quedaría recurrir a un laboratorio especializado en la recuperación de datos Una red de área amplia, o WAN (Wide Area Network en inglés), es una red de computadoras que une varias
  • 206. redes locales, aunque sus miembros no estén todos en una misma ubicación física. Muchas WAN son construidas por organizaciones o empresas para su uso privado, otras son instaladas por los proveedores de internet (ISP) para proveer conexión a sus clientes. Hoy en día, internet brinda conexiones de alta velocidad, de manera que un alto porcentaje de las redes WAN se basan en ese medio, reduciendo la necesidad de redes privadas WAN, mientras que las redes privadas virtuales que utilizan cifrado y otras técnicas para generar una red dedicada sobre comunicaciones en internet, aumentan continuamente. Definición[editar] Una definición de las redes WAN, en el término de aplicación de protocolos y conceptos de redes de ordenadores, sería: tecnologías de redes de ordenadores que se utilizan para transmitir datos a través de largas distancias, y entre las diferentes redes LAN, MAN y otras arquitecturas de redes de ordenadores localizadas. Esta distinción se debe al hecho de que las tecnologías LAN comunes que operan en la capa media (como Ethernet o Wifi) a menudo están orientados a redes localizadas físicamente, y por lo tanto no pueden transmitir datos a través de decenas, cientos o incluso miles de millas o kilómetros. Las WAN no necesariamente tienen que estar conectadas a las LAN. Puede, por ejemplo, tener un esqueleto localizado de una tecnología WAN, que conecta diferentes LANs dentro de un campus. Esta podría ser la de facilitar las aplicaciones de ancho de banda más altas, o proporcionar una mejor
  • 207. funcionalidad para los usuarios. Las WAN se utilizan para conectar redes LAN y otros tipos de redes. Así los usuarios se pueden comunicar con los usuarios y equipos de otros lugares. Muchas WAN son construidas por una organización en particular y son privadas. Otros, construidas por los proveedores de servicios de Internet, que proporcionan conexiones LAN a una organización de Internet. WAN a menudo se construyen utilizando líneas arrendadas. En cada extremo de la línea arrendada, un enrutador conecta la LAN en un lado con un segundo enrutador dentro de la LAN en el otro. Las líneas arrendadas pueden ser muy costosas. En lugar de utilizar líneas arrendadas, WAN también se puede construir utilizando métodos menos costosos de conmutación de circuitos o conmutación de paquetes. La red de protocolos incluyendo TCP/IP tiene la función de entrega de transporte y funciones de direccionamiento. Los protocolos, incluyendo paquetes como SONET/SDH, MPLS, ATM y Frame Relay son utilizados a menudo por los proveedores de servicios que ofrecen los vínculos que se usan en redes WAN. X.25 fue pronto un protocolo WAN importante, y es a menudo considerado como el "abuelo" de Frame Relay ya que muchos de los protocolos subyacentes y funciones de X.25 todavía están en uso hoy en día (con actualizaciones) por Frame Relay. La investigación académica en redes de área amplia puede ser dividido en tres áreas: modelos matemáticos, emulación de red y de simulación de red. Mejoras en el rendimiento a veces se entregan a través de los servicios de archivos de área extensa o por servicios de optimización de la WAN.
  • 208. Opciones de tecnología de conexión[editar] Hay varias opciones disponibles para la conectividad WAN: [[PASTING TABLES IS NOT SUPPORTED]] Las tasas de transmisión han aumentado con el tiempo, y seguirán aumentando. Alrededor de 1960 a 110 bits/s (bits por segundo) de la línea fue normal en el borde de la WAN, mientras que los enlaces centrales de 56 kbit/s a 64 kbit/s se consideraron "rápida". En este momento (2016) los hogares están conectados a Internet con ADSL o Fibra óptica a velocidades que van desde 1 Mbit/s hasta 300 Mbit/s, y las conexiones en el núcleo de una WAN puede variar de 1 Gbit/s de 300 Gbit/s. Recientemente, con la proliferación del bajo coste de conexión a Internet muchas empresas y organizaciones han recurrido a las VPN para interconectar sus redes, creando una red WAN de esa manera. Empresas como Citrix, Cisco, New Edge Networks y Check Point ofrecen soluciones para crear redes VPN. Características[editar] Posee máquinas dedicadas a la ejecución de programas de usuario (hosts). Una sub-red, donde conectan varios hosts. División entre líneas de transmisión y elementos de conmutación (enrutadores). Es un sistema de interconexión de equipos informáticos geográficamente dispersos, que pueden estar incluso en continentes distintos. El sistema de conexión para estas redes normalmente
  • 209. involucra a redes públicas de transmisión de datos. Ventajas de la red WAN[editar] Permite usar un software especial para que entre sus elementos de red coexistan mini y macrocomputadoras No se limita a espacios geográficos determinados Ofrece una amplia gama de medios de transmisión, como los enlaces satelitales Desventajas de la red WAN[editar] Se deben emplear equipos con una gran capacidad de memoria, ya que este factor repercute directamente en la velocidad de acceso a la información. No destaca por la seguridad que ofrece a sus usuarios. Los virus y la eliminación de programas son dos de los males más comunes que sufre la red WAN. Tipos de redes WAN[editar] Existen varios tipos de red WAN, y tres de ellos se agrupan bajo la clasificación de red conmutada (en física, la conmutación consiste en el cambio del destino de una señal o de una corriente eléctrica): Por circuitos Son redes de marcación de (dial-up), como la red de telefonía básica (RTB) y RDSI. Durante el tiempo que dura la llamada, el ancho de banda es dedicado. Por mensaje
  • 210. Sus conmutadores suelen ser ordenadores que cumplen la tarea de aceptar el tráfico de cada terminal que se encuentre conectado a ellas. Dichos equipos evalúan la dirección que se encuentra en la cabecera de los mensajes y pueden almacenarla para utilizarla más adelante. Cabe mencionar que también es posible borrar, redirigir y responder los mensajes en forma automática. Por paquetes Se fracciona cada mensaje enviado por los usuarios y se transforman en un número de pequeñas partes denominadas paquetes,que se vuelven a unir una vez llegan al equipo de destino, para reconstruir los datos iniciales. Dichos paquetes se mueven por la red independientemente, y esto repercute positivamente en el tráfico, además de facilitar la corrección de errores, ya que en caso de fallos sólo se deberán reenviar las partes afectadas. El ancho de banda es compartido entre todos los usuarios que usan la red. Una red de área amplia, o WAN (Wide Area Network en inglés), es una red de computadoras que une varias redes locales, aunque sus miembros no estén todos en una misma ubicación física. Muchas WAN son construidas por organizaciones o empresas para su uso privado, otras son instaladas por los proveedores de internet (ISP) para proveer conexión a sus clientes. Hoy en día, internet brinda conexiones de alta velocidad, de manera que un alto porcentaje de las redes WAN se basan en ese medio, reduciendo la necesidad de redes privadas WAN, mientras que las redes privadas virtuales que utilizan cifrado y otras técnicas para generar una red
  • 211. dedicada sobre comunicaciones en internet, aumentan continuamente. Definición[editar] Una definición de las redes WAN, en el término de aplicación de protocolos y conceptos de redes de ordenadores, sería: tecnologías de redes de ordenadores que se utilizan para transmitir datos a través de largas distancias, y entre las diferentes redes LAN, MAN y otras arquitecturas de redes de ordenadores localizadas. Esta distinción se debe al hecho de que las tecnologías LAN comunes que operan en la capa media (como Ethernet o Wifi) a menudo están orientados a redes localizadas físicamente, y por lo tanto no pueden transmitir datos a través de decenas, cientos o incluso miles de millas o kilómetros. Las WAN no necesariamente tienen que estar conectadas a las LAN. Puede, por ejemplo, tener un esqueleto localizado de una tecnología WAN, que conecta diferentes LANs dentro de un campus. Esta podría ser la de facilitar las aplicaciones de ancho de banda más altas, o proporcionar una mejor funcionalidad para los usuarios. Las WAN se utilizan para conectar redes LAN y otros tipos de redes. Así los usuarios se pueden comunicar con los usuarios y equipos de otros lugares. Muchas WAN son construidas por una organización en particular y son privadas. Otros, construidas por los proveedores de servicios de Internet, que proporcionan conexiones LAN a una organización de Internet. WAN a menudo se construyen utilizando líneas arrendadas. En cada extremo de la línea arrendada, un enrutador conecta la
  • 212. LAN en un lado con un segundo enrutador dentro de la LAN en el otro. Las líneas arrendadas pueden ser muy costosas. En lugar de utilizar líneas arrendadas, WAN también se puede construir utilizando métodos menos costosos de conmutación de circuitos o conmutación de paquetes. La red de protocolos incluyendo TCP/IP tiene la función de entrega de transporte y funciones de direccionamiento. Los protocolos, incluyendo paquetes como SONET/SDH, MPLS, ATM y Frame Relay son utilizados a menudo por los proveedores de servicios que ofrecen los vínculos que se usan en redes WAN. X.25 fue pronto un protocolo WAN importante, y es a menudo considerado como el "abuelo" de Frame Relay ya que muchos de los protocolos subyacentes y funciones de X.25 todavía están en uso hoy en día (con actualizaciones) por Frame Relay. La investigación académica en redes de área amplia puede ser dividido en tres áreas: modelos matemáticos, emulación de red y de simulación de red. Mejoras en el rendimiento a veces se entregan a través de los servicios de archivos de área extensa o por servicios de optimización de la WAN. Opciones de tecnología de conexión[editar] Hay varias opciones disponibles para la conectividad WAN: [[PASTING TABLES IS NOT SUPPORTED]] Las tasas de transmisión han aumentado con el tiempo, y seguirán aumentando. Alrededor de 1960 a 110 bits/s (bits por segundo) de la línea fue normal en el borde de la WAN, mientras que los enlaces centrales de 56 kbit/s
  • 213. a 64 kbit/s se consideraron "rápida". En este momento (2016) los hogares están conectados a Internet con ADSL o Fibra óptica a velocidades que van desde 1 Mbit/s hasta 300 Mbit/s, y las conexiones en el núcleo de una WAN puede variar de 1 Gbit/s de 300 Gbit/s. Recientemente, con la proliferación del bajo coste de conexión a Internet muchas empresas y organizaciones han recurrido a las VPN para interconectar sus redes, creando una red WAN de esa manera. Empresas como Citrix, Cisco, New Edge Networks y Check Point ofrecen soluciones para crear redes VPN. Características[editar] Posee máquinas dedicadas a la ejecución de programas de usuario (hosts). Una sub-red, donde conectan varios hosts. División entre líneas de transmisión y elementos de conmutación (enrutadores). Es un sistema de interconexión de equipos informáticos geográficamente dispersos, que pueden estar incluso en continentes distintos. El sistema de conexión para estas redes normalmente involucra a redes públicas de transmisión de datos. Ventajas de la red WAN[editar] Permite usar un software especial para que entre sus elementos de red coexistan mini y macrocomputadoras No se limita a espacios geográficos determinados Ofrece una amplia gama de medios de transmisión, como los enlaces satelitales
  • 214. Desventajas de la red WAN[editar] Se deben emplear equipos con una gran capacidad de memoria, ya que este factor repercute directamente en la velocidad de acceso a la información. No destaca por la seguridad que ofrece a sus usuarios. Los virus y la eliminación de programas son dos de los males más comunes que sufre la red WAN. Tipos de redes WAN[editar] Existen varios tipos de red WAN, y tres de ellos se agrupan bajo la clasificación de red conmutada (en física, la conmutación consiste en el cambio del destino de una señal o de una corriente eléctrica): Por circuitos Son redes de marcación de (dial-up), como la red de telefonía básica (RTB) y RDSI. Durante el tiempo que dura la llamada, el ancho de banda es dedicado. Por mensaje Sus conmutadores suelen ser ordenadores que cumplen la tarea de aceptar el tráfico de cada terminal que se encuentre conectado a ellas. Dichos equipos evalúan la dirección que se encuentra en la cabecera de los mensajes y pueden almacenarla para utilizarla más adelante. Cabe mencionar que también es posible borrar, redirigir y responder los mensajes en forma automática. Por paquetes
  • 215. Se fracciona cada mensaje enviado por los usuarios y se transforman en un número de pequeñas partes denominadas paquetes,que se vuelven a unir una vez llegan al equipo de destino, para reconstruir los datos iniciales. Dichos paquetes se mueven por la red independientemente, y esto repercute positivamente en el tráfico, además de facilitar la corrección de errores, ya que en caso de fallos sólo se deberán reenviar las partes afectadas. El ancho de banda es compartido entre todos los usuarios que usan la red. Una red privada virtual (RPV), en inglés: Virtual Private Network (VPN), es una tecnología de red de computadoras que permite una extensión segura de la red de área local(LAN) sobre una red pública o no controlada como Internet. Permite que la computadora en la red envíe y reciba datos sobre redes compartidas o públicas como si fuera una red privada con toda la funcionalidad, seguridad y políticas de gestión de una red privada.1 Esto se realiza estableciendo una conexión virtual punto a punto mediante el uso de conexiones dedicadas, cifrado o la combinación de ambos métodos. Ejemplos comunes son la posibilidad de conectar dos o más sucursales de una empresa utilizando como vínculo Internet, permitir a los miembros del equipo de soporte técnico la conexión desde su casa al centro de cómputo, o que un usuario pueda acceder a su equipo doméstico desde un sitio remoto, como por ejemplo un hotel. Todo ello utilizando la infraestructura de Internet. La conexión VPN a través de Internet es técnicamente una unión wide area network (WAN) entre los sitios pero al usuario le parece como si fuera un enlace privado— de
  • 216. allí la designación "virtual private network".2 Características básicas de la seguridad[editar] Para hacerlo posible de manera segura es necesario proporcionar los medios para garantizar la autentificación. Autentificación y autorización: ¿quién está del otro lado? Usuario/equipo y qué nivel de acceso debe tener. Integridad: de que los datos enviados no han sido alterados. Para ello se utilizan funciones de Hash. Los algoritmos de hash más comunes son los Message Digest (MD2 y MD5) y el Secure Hash Algorithm (SHA). Confidencialidad/Privacidad: dado que solamente puede ser interpretada por los destinatarios de la misma. Se hace uso de algoritmos de cifrado como Data Encryption Standard (DES), Triple DES (3DES) y Advanced Encryption Standard (AES). No repudio: es decir, un mensaje tiene que ir firmado, y quien lo firma no puede negar que envió el mensaje. Control de acceso: se trata de asegurar que los participantes autentificados tienen acceso únicamente a los datos a los que están autorizados. Auditoría y registro de actividades: se trata de asegurar el correcto funcionamiento y la capacidad de recuperación. Calidad del servicio: se trata de asegurar un buen rendimiento, que no haya una degradación poco aceptable en la velocidad de transmisión.
  • 217. Requisitos básicos[editar] Identificación de usuario: las VPN deben verificar la identidad de los usuarios y evitar el acceso de aquellos que no se encuentren autorizados. Cifrado de datos: los datos que se van a transmitir a través de la red pública (Internet), deben cifrarse, para que no puedan ser leídos si son interceptados. Esta tarea se realiza con algoritmos de cifrado simétrico como DES, 3DES o AES (Advanced Encryption Standard, en sus opciones AES128, AES192 o AES256) que únicamente pueden ser leídos por el emisor y receptor. Administración de claves: las VPN deben actualizar las claves de cifrado para los usuarios. Nuevo algoritmo de seguridad SEAL. Tipos de VPN[editar] Básicamente existen cuatro arquitecturas de conexión VPN: VPN de acceso remoto[editar] Es quizás el modelo más usado actualmente, y consiste en usuarios que se conectan con la empresa desde sitios remotos (oficinas comerciales, domicilios, hoteles, avionespreparados, etcétera) utilizando Internet como vínculo de acceso. Una vez autentificados tienen un nivel de acceso muy similar al que tienen en la red local de la empresa. Muchas empresas han reemplazado con esta tecnología su infraestructura dial-up (módems y líneas telefónicas). VPN punto a punto[editar]
  • 218. Este esquema se utiliza para conectar oficinas remotas con la sede central de la organización. El servidor VPN, que posee un vínculo permanente a Internet, acepta las conexiones vía Internet provenientes de los sitios y establece el túnel VPN. Los servidores de las sucursales se conectan a Internet utilizando los servicios de su proveedor local de Internet, típicamente mediante conexiones de banda ancha. Esto permite eliminar los costosos vínculos punto a punto tradicionales (realizados comúnmente mediante conexiones de cable físicas entre los nodos), sobre todo en las comunicaciones internacionales. Es más común el siguiente punto, también llamado tecnología de túnel o tunneling. Tunneling[editar] La técnica de tunneling consiste en encapsular un protocolo de red sobre otro (protocolo de red encapsulador) creando un túnel dentro de una red de computadoras. El establecimiento de dicho túnel se implementa incluyendo una PDU (unidades de datos de protocolo) determinada dentro de otra PDU con el objetivo de transmitirla desde un extremo al otro del túnel sin que sea necesaria una interpretación intermedia de la PDU encapsulada. De esta manera se encaminan los paquetes de datos sobre nodos intermedios que son incapaces de ver en claro el contenido de dichos paquetes. El túnel queda definido por los puntos extremos y el protocolo de comunicación empleado, que entre otros, podría ser SSH. El uso de esta técnica persigue diferentes objetivos, dependiendo del problema que se esté tratando, como por ejemplo la comunicación de islas en escenarios
  • 219. multicast, la redirección de tráfico, etc. Uno de los ejemplos más claros de utilización de esta técnica consiste en la redirección de tráfico en escenarios IP Móvil. En escenarios de IP móvil, cuando un nodo-móvil no se encuentra en su red base, necesita que su home-agent realice ciertas funciones en su puesto, entre las que se encuentra la de capturar el tráfico dirigido al nodo-móvil y redirigirlo hacia él. Esa redirección del tráfico se realiza usando un mecanismo de tunneling, ya que es necesario que los paquetes conserven su estructura y contenido originales (dirección IP de origen y destino, puertos, etc.) cuando sean recibidos por el nodo-móvil. Se maneja de manera remota. VPN over LAN[editar] Este esquema es el menos difundido pero uno de los más poderosos para utilizar dentro de la empresa. Es una variante del tipo "acceso remoto" pero, en vez de utilizar Internet como medio de conexión, emplea la misma red de área local (LAN) de la empresa. Sirve para aislar zonas y servicios de la red interna. Esta capacidad lo hace muy conveniente para mejorar las prestaciones de seguridad de las redes inalámbricas (WiFi). Un ejemplo clásico es un servidor con información sensible, como las nóminas de sueldos, ubicado detrás de un equipo VPN, el cual provee autenticación adicional más el agregado del cifrado, haciendo posible que solamente el personal de recursos humanos habilitado pueda acceder a la información. Otro ejemplo es la conexión a redes Wi-Fi haciendo uso de túneles cifrados IPSec o SSL que además de pasar
  • 220. por los métodos de autenticación tradicionales (WEP, WPA, direcciones MAC, etc.) agregan las credenciales de seguridad del túnel VPN creado en la LAN interna o externa. Implementaciones[editar] El protocolo estándar de facto es el IPSEC, pero también están PPTP, L2F, L2TP, SSL/TLS, SSH, etc. Cada uno con sus ventajas y desventajas en cuanto a seguridad, facilidad, mantenimiento y tipos de clientes soportados. Actualmente hay una línea de productos en crecimiento relacionada con el protocolo SSL/TLS, que intenta hacer más amigable la configuración y operación de estas soluciones. Las soluciones de hardware casi siempre ofrecen mayor rendimiento y facilidad de configuración, aunque no tienen la flexibilidad de las versiones por software. Dentro de esta familia tenemos a los productos de Fortinet, SonicWALL, SaiWALL, WatchGuard, Nortel, Cisco, Linksys, Netscreen (Juniper Networks), Symantec, Nokia, U.S. Robotics, D-link, Mikrotik, etc. Las aplicaciones VPN por software son las más configurables y son ideales cuando surgen problemas de interoperatividad en los modelos anteriores. Obviamente el rendimiento es menor y la configuración más delicada, porque se suma el sistema operativo y la seguridad del equipo en general. Aquí tenemos por ejemplo a las soluciones nativas de Windows, GNU/Linux y los Unix en
  • 221. general. Por ejemplo productos de código abierto como OpenSSH, OpenVPN y FreeS/Wan. En ambos casos se pueden utilizar soluciones de firewall («cortafuegos» o «barrera de fuego»), obteniendo un nivel de seguridad alto por la protección que brinda, en detrimento del rendimiento. Ventajas[editar] Integridad, confidencialidad y seguridad de datos. Las VPN reducen los costes y son sencillas de usar. Facilita la comunicación entre dos usuarios en lugares distantes. Tipos de conexión[editar]Conexión de acceso remoto[editar] Una conexión de acceso remoto es realizada por un cliente o un usuario de una computadora que se conecta a una red privada, los paquetes enviados a través de la conexión VPN son originados al cliente de acceso remoto, y éste se autentifica al servidor de acceso remoto, y el servidor se autentifica ante el cliente. Conexión VPN router a router[editar] Una conexión VPN router a router es realizada por un router, y este a su vez se conecta a una red privada. En este tipo de conexión, los paquetes enviados desde cualquier routerno se originan en los routers. El router que realiza la llamada se autentifica ante el router que responde y este a su vez se autentifica ante el router que realiza la llamada y también sirve para la intranet. Conexión VPN firewall a firewall[editar]
  • 222. Una conexión VPN firewall es realizada por uno de ellos, y éste a su vez se conecta a una red privada. En este tipo de conexión, los paquetes son enviados desde cualquier usuario en Internet. El firewall que realiza la llamada se autentifica ante el que responde y éste a su vez se autentifica ante el llamante. VPN en entornos móviles[editar] La VPN móvil se establece cuando el punto de terminación de la VPN no está fijo a una única dirección IP, sino que se mueve entre varias redes como pueden ser las redes de datos de operadores móviles o distintos puntos de acceso de una red Wifi.3 Las VPNs móviles se han utilizado en seguridad pública dando acceso a las fuerzas de orden público a aplicaciones críticas tales como bases de datos con datos de identificación de criminales, mientras que la conexión se mueve entre distintas subredes de una red móvil.4 También se utilizan en la gestión de equipos de técnico y en organizaciones sanitarias5 entre otras industrias. Cada vez más, las VPNs móviles están siendo adaptadas por profesionales que necesitan conexiones fiables.6 Se utilizan para moverse entre redes sin perder la sesión de aplicación o perder la sesión segura en la VPN. En una VPN tradicional no se pueden soportar tales situaciones porque se produce la desconexión de la aplicación, time outs3 o fallos, o incluso causar fallos en el dispositivo Ethernet (pronunciado /ˈiːθərnɛt/ en inglés) es un estándar de redes de área local para computadores,por sus siglas en español Acceso Múltiple con Escucha de Portadora y Detención de Colisiones (CSMA/CD). Su nombre viene del concepto físico de ether. Ethernet
  • 223. define las características de cableado y señalización de nivel físico y los formatos de tramas de datos del nivel de enlace de datos del modelo OSI. Ethernet se tomó como base para la redacción del estándar internacional IEEE 802.3, siendo usualmente tomados como sinónimos. Se diferencian en uno de los campos de la trama de datos. Sin embargo, las tramas Ethernet e IEEE 802.3 pueden coexistir en la misma red. Historia[editar] En 1970, mientras Norman Abramson montaba la gran red ALOHA en Hawái, un estudiante recién graduado en el MIT llamado Robert Metcalfe se encontraba realizando sus estudios de doctorado en la Universidad de Harvard trabajando para ARPANET, que era el tema de investigación candente en aquellos días. En un viaje a Washington, Metcalfe estuvo en casa de Steve Crocker (el inventor de los RFC de Internet) donde este lo dejó dormir en el sofá. Para poder conciliar el sueño Metcalfe empezó a leer una revista científica donde encontró un artículo de Norm Abramson acerca de la red Aloha. Metcalfe pensó cómo se podía mejorar el protocolo utilizado por Abramson, y escribió un artículo describiendo un protocolo que mejoraba sustancialmente el rendimiento de Aloha. Ese artículo se convertiría en su tesis doctoral, que presentó en 1973. La idea básica era muy simple: las estaciones antes de transmitir deberían detectar si el canal ya estaba en uso (es decir si ya había 'portadora'), en cuyo caso esperarían a que la estación activa terminara. Además, cada estación mientras transmitiera estaría continuamente vigilando el medio físico por si se producía alguna colisión, en cuyo caso se pararía y
  • 224. retransmitiría más tarde. Este protocolo MAC recibiría más tarde la denominación Acceso Múltiple con Detección de Portadora y Detección de Colisiones, o más brevemente CSMA/CD (Carrier Sense Multiple Access / Collision Detection). En 1972 Metcalfe se mudó a California para trabajar en el Centro de Investigación de Xerox en Palo Alto llamado Xerox PARC (Palo Alto Research Center). Allí se estaba diseñando lo que se consideraba la 'oficina del futuro' y Metcalfe encontró un ambiente perfecto para desarrollar sus inquietudes. Se estaban probando unas computadoras denominadas Alto, que ya disponían de capacidades gráficas y ratón y fueron consideradas los primeros ordenadores personales. También se estaban fabricando las primeras impresoras láser. Se quería conectar las computadoras entre sí para compartir ficheros y las impresoras. La comunicación tenía que ser de muy alta velocidad, del orden de megabits por segundo, ya que la cantidad de información a enviar a las impresoras era enorme (tenían una resolución y velocidad comparables a una impresora láser actual). Estas ideas que hoy parecen obvias eran completamente revolucionarias en 1973. A Metcalfe, el especialista en comunicaciones del equipo con 27 años de edad, se le encomendó la tarea de diseñar y construir la red que uniera todo aquello. Contaba para ello con la ayuda de un estudiante de doctorado de Stanford llamado David Boggs. Las primeras experiencias de la red, que denominaron 'Alto Aloha Network', las llevaron a cabo en 1972. Fueron mejorando gradualmente el prototipo hasta que el 22 de mayo de 1973 Metcalfe escribió un memorándum interno en el que informaba de la nueva red. Para evitar
  • 225. que se pudiera pensar que solamente servía para conectar computadoras Alto cambió el nombre de la red por el de Ethernet, que hacía referencia a la teoría de la física hoy ya abandonada según la cual las ondas electromagnéticas viajaban por un fluido denominado éter que se suponía llenaba todo el espacio (para Metcalfe el 'éter' era el cable coaxialpor el que iba la señal). Las dos computadoras Alto utilizadas para las primeras pruebas de Ethernet fueron rebautizadas con los nombres Michelson y Morley, en alusión a los dos físicos que demostraron en 1887 la inexistencia del éter mediante el famoso experimento de Michelson y Morley. La red de 1973 ya tenía todas las características esenciales de la Ethernet actual. Empleaba CSMA/CD para minimizar la probabilidad de colisión, y en caso de que esta se produjera se ponía en marcha un mecanismo denominado retroceso exponencial binario para reducir gradualmente la ‘agresividad’ del emisor, con lo que este se adaptaba a situaciones de muy diverso nivel de tráfico. Tenía topología de bus y funcionaba a 2,94 Mb/s sobre un segmento de cable coaxial de 1,6 km de longitud. Las direcciones eran de 8 bits y el CRC de las tramas de 16 bits. El protocolo utilizado al nivel de red era el PUP (Parc Universal Packet) que luego evolucionaría hasta convertirse en el que luego fue XNS (Xerox Network System), antecesor a su vez de IPX (Netware de Novell). En vez de utilizar el cable coaxial de 75 ohms de las redes de televisión por cable se optó por emplear cable de 50 ohms que producía menos reflexiones de la señal, a las cuales Ethernet era muy sensible por transmitir la señal en banda base (es decir sin modulación). Cada empalme del cable y cada 'pincho' vampiro (transceiver)
  • 226. instalado producía la reflexión de una parte de la señal transmitida. En la práctica el número máximo de 'pinchos' vampiro, y por tanto el número máximo de estaciones en un segmento de cable coaxial, venía limitado por la máxima intensidad de señal reflejada tolerable. En 1975 Metcalfe y Boggs describieron Ethernet en un artículo que enviaron a Communications of the ACM (Association for Computing Machinery), publicado en 1976. En él ya describían el uso de repetidores para aumentar el alcance de la red. En 1977 Metcalfe, Boggs y otros dos ingenieros de Xerox recibieron una patente por la tecnología básica de Ethernet, y en 1978 Metcalfe y Boggs recibieron otra por el repetidor. En esta época todo el sistema Ethernet era propiedad de Xerox. Conviene destacar que David Boggs construyó en el año 1975 durante su estancia en Xerox PARC el primer router y el primer servidor de nombres de Internet. Versiones de 802.3[editar] Ethernet se tomó como base para la redacción del estándar internacional IEEE 802.3, siendo usualmente tomados como sinónimos. Se diferencian en uno de los campos de la trama de datos. Sin embargo, las tramas originales Ethernet e IEEE 802.3 pueden coexistir en la misma red. Los estándares de este grupo no reflejan necesariamente lo que se usa en la práctica, aunque a diferencia de otros grupos este suele estar cerca de la realidad. La primera versión del IEEE 802.3 fue un intento de
  • 227. estandarizar ethernet aunque hubo un campo de la cabecera que se definió de forma diferente, posteriormente ha habido ampliaciones sucesivas al estándar que cubrieron las ampliaciones de velocidad (Fast Ethernet, Gigabit Ethernet y el de 10 Gigabits), redes virtuales, hubs, conmutadores y distintos tipos de medios, tanto de fibra óptica como de cables de cobre (tanto par trenzado como coaxial). [[PASTING TABLES IS NOT SUPPORTED]]Formato de la trama Ethernet[editar] La trama es lo que se conoce también por el nombre de "frame". Estructura de la Payload en Ethernet y protocolos IP y TCP. El primer campo es el preámbulo que indica el inicio de la trama y tienen el objeto de que el dispositivo que lo recibe detecte una nueva trama y se sincronice. El delimitador de inicio de trama indica que el frame empieza a partir de él. Los campos de MAC (o dirección) de destino y origen indican las direcciones físicas del dispositivo al que van dirigidos los datos y del dispositivo origen de los datos, respectivamente. La etiqueta es un campo opcional que indica la pertenencia a una VLAN o prioridad en IEEE P802.1p Ethernetype indica con que protocolo están encapsulados los datos que contiene la Payload, en caso de que se usase un protocolo de capa superior. La Payload es donde van todos los datos y, en el
  • 228. caso correspondiente, cabeceras de otros protocolos de capas superiores (Según Modelo OSI, véase Protocolos en informática) que pudieran formatear a los datos que se tramiten (IP, TCP, etc). Tiene un mínimo de 64 Bytes (o 42 si es la versión 802.1Q) hasta un máximo de 1518 Bytes. Los mensajes inferiores a 64 bytes se llaman tramas enanas (runt frames) e indican mensajes dañados y parcialmente transmitidos.1 La secuencia de comprobación es un campo de 4 bytes que contiene un valor de verificación CRC (control de redundancia cíclica). El emisor calcula el CRC de toda la trama, desde el campo destino al campo CRC suponiendo que vale 0. El receptor lo recalcula, si el valor calculado es 0 la trama es válida. El gap de final de trama son 12 bytes vacíos con el objetivo de espaciado entre tramas. [[PASTING TABLES IS NOT SUPPORTED]]Tecnología y velocidad de Ethernet[editar] Hace ya mucho tiempo que Ethernet consiguió situarse como el principal protocolo del nivel de enlace. Ethernet 10Base2 consiguió, ya en la década de los 90s, una gran aceptación en el sector. Hoy por hoy, 10Base2 se considera como una "tecnología de legado" respecto a 100BaseT. Hoy los fabricantes ya han desarrollado adaptadores capaces de trabajar tanto con la tecnología 10baseT como la 100BaseT y esto ayuda a una mejor adaptación y transición. Las tecnologías Ethernet que existen se diferencian en estos conceptos entre ellos:
  • 229. Velocidad de transmisiónVelocidad a la que transmite la tecnología.Tipo de cableTecnología del nivel físico que usa la tecnología.Longitud máximaDistancia máxima que puede haber entre dos nodos adyacentes (sin estaciones repetidoras).TopologíaDetermina la forma física de la red. Bus si se usan conectores T (hoy solamente usados con las tecnologías más antiguas) y estrella si se usan hubs (estrella de difusión) o switchs (estrella conmutada). A continuación se especifican los anteriores conceptos en las tecnologías más importantes: [[PASTING TABLES IS NOT SUPPORTED]]Hardware comúnmente usado en una red Ethernet[editar] Los elementos de una red Ethernet son: tarjeta de red, repetidores, concentradores, puentes, los conmutadores, los nodos de red y el medio de interconexión. Los nodos de red pueden clasificarse en dos grandes grupos: equipo terminal de datos (DTE) y equipo de comunicación de datos (DCE). Los DTE son dispositivos de red que generan el destino de los datos: los PC, las estaciones de trabajo, los servidores de archivos, los servidores de impresión; todos son parte del grupo de las estaciones finales. Los DCE son los dispositivos de red intermediarios que reciben y retransmiten las tramas dentro de la red; pueden ser: conmutadores (switch), routers, concentradores (hub), repetidores o interfaces de comunicación. Por ejemplo: un módem o una tarjeta de interfaz. Tarjeta de Interfaz de Red o NIC, permite que una
  • 230. computadora acceda a una red local. Cada tarjeta tiene una única dirección MAC que la identifica en la red. Una computadora conectada a una red se denomina nodo. Repetidor o repeater, aumenta el alcance de una conexión física, recibiendo las señales y retransmitiéndolas, para evitar su degradación, a través del medio de transmisión, lográndose un alcance mayor. Usualmente se usa para unir dos áreas locales 'de igual' tecnología y solamente tiene 'dos' puertos. Opera en la capa física del modelo OSI. Concentrador o hub, funciona como un repetidor pero permite la interconexión de 'múltiples' nodos. Su funcionamiento es relativamente simple pues recibe una trama de ethernet, por uno de sus puertos, y la repite por todos sus puertos restantes sin ejecutar ningún proceso sobre las mismas. Opera en la capa física del modelo OSI. Puente de red o bridge, interconecta segmentos de red haciendo el cambio de frames (tramas) entre las redes de acuerdo con una tabla de direcciones que le dice en qué segmento está ubicada una dirección MAC dada. Se diseñan para uso entre las LAN que usan protocolos idénticos en la capa física y MAC (control de acceso al medio). Aunque existen bridges más sofisticados que permiten la conversión de formatos MAC diferentes (Ethernet-Token Ring por ejemplo). Conexiones en un switch Ethernet. Conmutador o switch, funciona como el bridge, pero permite la interconexión de múltiples segmentos de
  • 231. red, funciona en velocidades más rápidas y es más sofisticado. Los switches pueden tener otras funcionalidades, como redes virtuales, y permiten su configuración a través de la propia red. Funciona básicamente en la capa 2 del modelo OSI (enlace de datos). Por esto son capaces de procesar información de las tramas; su funcionalidad más importante es en las tablas de dirección. Por ejemplo, una computadora conectada al puerto 1 del conmutador envía una trama a otra computadora conectada al puerto 2; el switch recibe la trama y la transmite a todos sus puertos, excepto aquel por donde la recibió; la computadora 2 recibirá el mensaje y eventualmente lo responderá, generando tráfico en el sentido contrario; ahora el switch conocerá las direcciones MAC de las computadoras en el puerto 1 y 2; cuando reciba otra trama con dirección de destino de alguna de ellas, únicamente transmitirá la trama a dicho puerto disminuyendo así el tráfico de la red y contribuyendo al buen funcionamiento de la misma. Presente y futuro de Ethernet[editar] Ethernet se planteó en un principio como un protocolo destinado a cubrir las necesidades de las redes de área local (LAN). A partir de 2001, Ethernet alcanzó los 10 Gbit/s lo que dio mucha más popularidad a la tecnología. Dentro del sector se planteaba a ATM como la total encargada de los niveles superiores de la red, pero el estándar 802.3ae (Ethernet Gigabit 10) se ha situado en una buena posición para extenderse al nivel WAN.
  • 232. Logotipo de la marca Wi-Fi El wifi (sustantivo común en español, incluido en el Diccionario de la ASALE)1 es una tecnología que permite la interconexión inalámbrica de dispositivos electrónicos. Los dispositivos habilitados con wifi (tales como computadoras personales, teléfonos, televisores, videoconsolas, reproductores de música...) pueden conectarse entre sí o a internet a través de un punto de acceso de red inalámbrica. Wi-Fi es una marca de la Alianza Wi-Fi, la organización comercial que adopta, prueba y certifica que los equipos cumplen con los estándares 802.11 relacionados con redes inalámbricas de área local. Su primera denominación fue “Wireless Ethernet Compatibility Alliance”.2 Etimología[editar] El término wifi, sustantivo comúnnota 1 escrito normalmente en redonda (sin comillas ni cursiva), proviene de la marca comercial Wi-Fi.3 La WECA, el consorcio que desarrolló esta tecnología, contrató a una empresa de publicidad para que le diera un nombre a su estándar, de tal manera que fuera fácil de entender y recordar. Phil Belanger, miembro fundador de WECA, actualmente llamada Alianza Wi-Fi, apoyó el nombre Wi- Fi:4 "Wi-Fi" y el "Style logo" del Yin Yang fueron inventados por la agencia Interbrand. Nosotros (WiFi Alliance) contratamos a Interbrand para que nos hiciera un logotipo y un nombre que fuera corto, tuviera mercado y fuera fácil de recordar. Necesitábamos algo que
  • 233. fuera algo más llamativo que “IEEE 802.11b de Secuencia Directa”. Interbrand creó nombres como “Prozac”, “Compaq”, “OneWorld”, “Imation”, por mencionar algunos. Incluso inventaron un nombre para la compañía: VIATO.” Phil Belanger La Wi-Fi Alliance utilizó el eslogan publicitario "The Standard for Wireless Fidelity" - El estándar para la fidelidad inalámbrica - por un corto tiempo después de que se creara la marca, y aunque, el nombre nunca fue oficialmente "fidelidad inalámbrica", como la Wi-Fi Alliance también se denominó "Wireless Fidelity Alliance Inc" - Alianza de la Fidelidad Inalámbrica incorporada - en algunas publicaciones y en la web del IEEE se define que "WiFi es un nombre corto para Wireless Fidelity" se puede concluir que Wi-Fi se entiende como abreviatura de Fidelidad Inalámbrica, para nombrar un conjunto de protocolos y ferretería - hardware - de red inalámbrica con inspiración mercadotécnica o marketiniana en el uso de Hi-Fi para "High Fidelity" Alta Fidelidad para nombrar un conjunto de sistemas de audio de altas prestaciones. Historia[editar] Esta nueva tecnología surgió por la necesidad de establecer un mecanismo de conexión inalámbrica que fuese compatible entre distintos dispositivos. Buscando esa compatibilidad, en 1999 las empresas 3Com, Airones, Intersil, Lucent Technologies, Nokia y Symbol Technologies se unieron para crear la Wireless Ethernet Compatibility Alliance, o WECA, actualmente llamada Alianza Wi-Fi. El objetivo de la misma fue designar una
  • 234. marca que permitiese fomentar más fácilmente la tecnología inalámbrica y asegurar la compatibilidad de equipos. De esta forma, en abril de 2000 WECA certifica la interoperabilidad de equipos según la norma IEEE 802.11b, bajo la marca Wi-Fi. Esto quiere decir que el usuario tiene la garantía de que todos los equipos que tengan el sello Wi-Fi pueden trabajar juntos sin problemas, independientemente del fabricante de cada uno de ellos. En el año 2002, la asociación WECA estaba formada ya por casi 150 miembros en su totalidad[cita requerida]. La familia de estándares 802.11 ha ido naturalmente evolucionando desde su creación, mejorando el rango y velocidad de la transferencia de información, su seguridad, entre otras cosas. La norma IEEE 802.11 fue diseñada para sustituir el equivalente a las capas físicas y MAC de la norma 802.3 (Ethernet). Esto quiere decir que en lo único que se diferencia una red wifi de una red Ethernet es en cómo se transmiten las tramas o paquetes de datos; el resto es idéntico. Por tanto, una red local inalámbrica 802.11 es completamente compatible con todos los servicios de las redes locales (LAN) de cable 802.3 (Ethernet). Estándares que certifica la Alianza Wi-Fi[editar] Existen diversos tipos de wifi, basado cada uno de ellos en un estándar IEEE 802.11. Son los siguientes: Los estándares IEEE 802.11b, IEEE 802.11g e IEEE 802.11n disfrutan de una aceptación internacional debido a que la banda de 2,4 GHz está disponible
  • 235. casi universalmente, con una velocidad de hasta 11 Mbit/s, 54 Mbit/s y 300 Mbit/s, respectivamente. En la actualidad ya se maneja también el estándar IEEE 802.11ac, conocido como WIFI 5, que opera en la banda de 5 GHz y que disfruta de una operatividad con canales relativamente limpios. La banda de 5 GHz ha sido recientemente habilitada y, al no existir otras tecnologías (Bluetooth, microondas, ZigBee, WUSB) que la utilicen, se producen muy pocas interferencias. Su alcance es algo menor que el de los estándares que trabajan a 2,4 GHz (aproximadamente un 10 %), debido a que la frecuencia es mayor (a mayor frecuencia, menor alcance). Existen otras tecnologías inalámbricas como Bluetooth que también funcionan a una frecuencia de 2,4 GHz, por lo que puede presentar interferencias con la tecnología wifi. Debido a esto, en la versión 1.2 del estándar Bluetooth por ejemplo se actualizó su especificación para que no existieran interferencias con la utilización simultánea de ambas tecnologías, además se necesita tener 40 Mbit/s. Seguridad y fiabilidad[editar] Tarjeta wifi y bluetooth interno. Uno de los problemas a los cuales se enfrenta actualmente la tecnología wifi es la progresiva saturación del espectro radioeléctrico, debido a la masificación de usuarios; esto afecta especialmente en las conexiones de larga distancia (mayor de 100 metros). En realidad el estándar wifi está diseñado para
  • 236. conectar ordenadores a la red a distancias reducidas, cualquier uso de mayor alcance está expuesto a un excesivo riesgo de interferencias. Un elevado porcentaje de redes se instalan sin tener en consideración la seguridad, convirtiéndose así en redes abiertas (completamente accesible a terceras personas), sin proteger la información que por ellas circulan. De hecho, la configuración por defecto de muchos dispositivos wifi es muy insegura (routers, por ejemplo) dado que a partir del identificador del dispositivo se puede conocer la contraseña de acceso de éste y, por tanto,se puede conseguir fácilmente acceder y controlar el dispositivo . El acceso no autorizado a un dispositivo wifi es muy peligroso para el propietario por varios motivos. El más obvio es que pueden utilizar la conexión. Pero, además, accediendo al wifi se puede supervisar y registrar toda la información que se transmite a través de él (incluyendo información personal, contraseñas…). La forma de hacerlo seguro es seguir algunos consejos:56 Cambios frecuentes de la contraseña de acceso, utilizando diversos caracteres, minúsculas, mayúsculas y números. Se debe modificar el SSID que viene predeterminado. Desactivar la difusión de SSID y DHCP. Configurar los dispositivos conectados con su dirección MAC (indicando específicamente qué dispositivos están autorizados para conectarse). Utilización de cifrado: WPA2. Existen varias alternativas para garantizar la seguridad de estas redes. Las más comunes son la utilización de
  • 237. protocolos de cifrado de datos para los estándares wifi como el WEP, el WPA, o el WPA2 que se encargan de codificar la información transmitida para proteger su confidencialidad, proporcionados por los propios dispositivos inalámbricos. La mayoría de las formas son las siguientes: WEP, cifra los datos en su red de forma que solo el destinatario deseado pueda acceder a ellos. Los cifrados de 64 y 128 bits son dos niveles de seguridad WEP. WEP codifica los datos mediante una “clave” de cifrado antes de enviarlo al aire. Este tipo de cifrado no está recomendado debido a las grandes vulnerabilidades que presenta ya que cualquier cracker puede conseguir sacar la clave, incluso aunque esté bien configurado y la clave utilizada sea compleja. WPA: presenta mejoras como generación dinámica de la clave de acceso. Las claves se insertan como dígitos alfanuméricos. IPSEC (túneles IP) en el caso de las VPN y el conjunto de estándares IEEE 802.1X, que permite la autenticación y autorización de usuarios. Filtrado de MAC, de manera que solo se permite acceso a la red a aquellos dispositivos autorizados. Es lo más recomendable si solo se va a usar con los mismos equipos y si son pocos. Ocultación del punto de acceso: se puede ocultar el punto de acceso (router) de manera que sea invisible a otros usuarios.
  • 238. El protocolo de seguridad llamado WPA2 (estándar 802.11i), que es una mejora relativa a WPA. En principio es el protocolo de seguridad más seguro para Wi-Fi en este momento. Sin embargo requieren hardware y software compatibles, ya que los antiguos no lo son. La seguridad de una red wifi puede ser puesta a prueba mediante una auditoría de wifi. Sin embargo, no existe ninguna alternativa totalmente fiable, ya que todas ellas son susceptibles de ser vulneradas. Dispositivos[editar] Existen varios dispositivos wifi, los cuales se pueden dividir en dos grupos: dispositivos de distribución o de red, entre los que destacan los enrutadores, puntos de acceso y repetidores; y dispositivos terminales que en general son las tarjetas receptoras para conectar a la computadora personal, ya sean internas (tarjetas PCI) o bien USB. Dispositivos de distribución o de red: Los puntos de acceso son dispositivos que generan un set de servicio que podría definirse como una red wifi a la que se pueden conectar otros dispositivos. Los puntos de acceso permiten conectar dispositivos de forma inalámbrica a una red existente. Pueden agregarse más puntos de acceso a una red para generar redes de cobertura más amplia, o conectar antenas más grandes que amplifiquen la señal. Los repetidores inalámbricos son equipos que se
  • 239. utilizan para extender la cobertura de una red inalámbrica. Se conectan a una red existente que tiene señal más débil y crean una señal más fuerte a la que se pueden conectar los equipos dentro de su alcance. Algunos de ellos funcionan también como punto de acceso. Los enrutadores inalámbricos son dispositivos compuestos especialmente diseñados para redes pequeñas (hogar o pequeña oficina). Estos dispositivos incluyen un enrutador (encargado de interconectar redes; por ejemplo, nuestra red del hogar con Internet), un punto de acceso (explicado más arriba) y generalmente un conmutadorque permite conectar algunos equipos vía cable (Ethernet y USB). Su tarea es tomar la conexión a Internet y brindar a través de ella acceso a todos los equipos que conectemos, sea por cable o en forma inalámbrica. Los dispositivos terminales abarcan tres tipos mayoritarios: tarjetas PCI, tarjetas PCMCIA y tarjetas USB: El wifi puede ser desactivado por un terminal del dispositivo. Las tarjetas PCI para wifi se agregan (o vienen de fábrica) a los ordenadores de sobremesa. Hoy en día están perdiendo terreno debido a las tarjetas USB. Dentro de este grupo también pueden agregarse las tarjetas MiniPCI que vienen integradas en casi cualquier computador portátil disponible hoy en el mercado. Las tarjetas PCMCIA son un modelo que se utilizó
  • 240. mucho en los primeros ordenadores portátiles, ya en desuso, debido a la integración de tarjeta inalámbricas internas en estos ordenadores. La mayor parte de estas tarjetas solo son capaces de llegar hasta la tecnología B de wifi, no permitiendo por tanto disfrutar de una velocidad de transmisión demasiado elevada Las tarjetas USB para wifi son el tipo de tarjeta más común que existe en las tiendas y más sencillo de conectar a un ordenador personal, ya sea de sobremesa o portátil, disponiendo de todas las ventajas de la tecnología USB. Hoy en día puede encontrarse incluso tarjetas USB con el estándar 802.11n (Wireless-N) que es el último estándar liberado para redes inalámbricas. También existen impresoras, cámaras Web y otros periféricos que funcionan con la tecnología wifi, permitiendo un ahorro de mucho cableado en las instalaciones de redes y especialmente gran movilidad de equipo. En relación con los manejadores de dispositivo, existen directorios de circuito integrado auxiliar de adaptadores inalámbricos.7 Ventajas y desventajas[editar] Las redes wifi poseen una serie de ventajas, entre las cuales podemos destacar: Al ser redes inalámbricas, la comodidad que ofrecen es muy superior a las redes cableadas porque cualquiera que tenga acceso a la red puede conectarse desde distintos puntos dentro de un
  • 241. espacio lo bastante amplio. Una vez configuradas, las redes wifi permiten el acceso de múltiples dispositivos sin ningún problema ni gasto en infraestructura, ni gran cantidad de cables. La Alianza Wi-Fi asegura que la compatibilidad entre dispositivos con la marca Wi-Fi es total, con lo que en cualquier parte del mundo podremos utilizar la tecnología wifi con una compatibilidad absoluta. Pero como red inalámbrica, la tecnología wifi presenta los problemas intrínsecos de cualquier tecnología inalámbrica. Algunos de ellos son: Una de las desventajas que tiene el sistema wifi es una menor velocidad en comparación a una conexión cableada, debido a las interferencias y pérdidas de señal que el ambiente puede acarrear. La desventaja fundamental de estas redes reside en el campo de la seguridad. Existen algunos programas capaces de capturar paquetes, trabajando con su tarjeta wifi en modo promiscuo, de forma que puedan calcular la contraseña de la red y de esta forma acceder a ella. Las claves de tipo WEP son relativamente fáciles de conseguir con este sistema. La Alianza Wi-Fi arregló estos problemas sacando el estándar WPA y posteriormente WPA2, basados en el grupo de trabajo 802.11i. Las redes protegidas con WPA2 se consideran robustas dado que proporcionan muy buena seguridad. Este problema se agrava si consideramos que no se puede controlar el área de cobertura de una
  • 242. conexión, de manera que un receptor se puede conectar desde fuera de la zona de recepción prevista (por ejemplo: desde fuera de una oficina, desde una vivienda colindante). Esta tecnología no es compatible con otros tipos de conexiones sin cables como Bluetooth, GPRS, UMTS, etc. La potencia de la conexión del wifi se verá afectada por los agentes físicos que se encuentran a nuestro alrededor, tales como: árboles, paredes, arroyos, una montaña, etc. Dichos factores afectan la potencia de compartimiento de la conexión wifi con otros dispositivos. HotSpot WiFi, es un equipo de acceso que ofrece cobertura wireless (sin cables) mediante estándares WiFi, con el objetivo de establecer una comunicación inalámbrica WiFi entre un dispositivo "cliente". Una de las características a destacar de un HotSpot es un portal cautivo que aparece al abrir el explorador y que habitualmente solicita una identificación mediante User y password. Podrémos establecer prioridades de quién se conecta (clientes, invitados, empleados, administradores, ect.) y además del control e información para poder rentabilizar nuestra red. Podemos establecer franjas horarias para la conexión de nuestros clientes según nuestra política de marketing, servicio contratado … Podemos establecer el tiempo de conexión según el tipo de cliente, o bien establecer diferentes tarifas en función
  • 243. del tiempo. Nos puede ser de gran utilidad para negocios como restaurantes o bares. Podrémos repartir el caudal del que disponemos dependiendo del tipo y número de clientes / usuarios, consiguiendo rentabilizar al máximo el total de ancho de banda disponible. Para evitar abusos (vídeos, P2P, música...) podemos limitar el consumo total, estableciendo reglas. Guardar un LOG es una de las funcionalidades más importantes. Guardaremos un historial de todas las conexiones que se realicen desde nuestro establecimiento (es un método de seguridad obligatorio por ley). ¿Te animas a instalar una red WiFi con HotSpot? WifiSafe se dirige a profesionales, pequeñas y medianas empresas, grandes organizaciones y compañías o administraciones públicas, como una alternativa de solución segura y profesional.